На сайтах на платформе asp.net работает схема с сессионными куками, которую используем только при прямых заходах и из соц. сетей. Боты без проблем маркируются и все дальнейшие переходы по сайту мы видим, обычно 3-4 перехода. Схема работает около трех недель, боты все так же валят на сайт, хотя метрика и реклама им уже не отображается.
Бототраф.
Совершенно верно, это боты.
В выходные такая просадка посещаемости.
ГС, уже официально, неплохо растёт, 3 февраля вышвырнули из РСЯ
так новый заход - новая сессия.
В IIS при каждом следующем запросе клиент передает на сервер персональный идентификатор сессии через куки. Сервер сопоставляет идентификаторы и узнает клиента в рамках текущей сессии. Я передаю в состояние сеанса параметр "IsEmptyReferrer=true" только для прямых заходов и ловлю сессию с этим именем( "IsEmptyReferrer"), когда бот зашел с уже гугла, на скрине выше это видно.
повторные заходы у них без старых куков.
Вроде, получается маркировать ботов сессионными куками(cерверный механизм управления сессией в IIS), но переходов ботов с поисковых систем совсем ничтожный, по сравнению с прямыми. Вот сижу думаю или заходов мало через поисковики или настройки таймаута хранения сессий на стороне сервера кривые.
Курю теперь ветку adsense, там предполагают, что это из-за боттрафика. Но у меня возможный боттрафик 4% от общей массы, 96% идёт с ПС.
У меня тоже на сайте 97% поискового трафика, но остальные 3% кишат ботами, которые скликивают рекламу, естественно получил бан в РСЯ.
Закрыл метрики и рекламу от прямых заходов и разместил блоки adsense, тьфу-тьфу неделя уже без каких-либо ограничений от гугля.
Коллега, не подскаешь: чем и как закрыл?
Ищу варианты, как это сделать..
У меня самописный сайт на платформе asp.net. Алгоритм довольно простой, все заходы сначала сверяются с таблицей ip-адресов полезных роботов и по итогу уже делаю проверку на пустой реферер.