Анти БОТ

Анти БОТ
Рейтинг
129
Регистрация
14.03.2020
Должность
специалист по поведенческим ботам
WebStorm :
В яндекс метрике наблюдаю каждый день кучу заходов с подсетей Comfortel Ltd., взял бы да забанил, да только этот нехороший провайдер и хостинг предоставляет и является ISP провайдером, по сути отличить по хуизу робот это или реальный человек невозможно, не могут этого сделить и такие сервисы как ipinfo.io и ip2location.com, выводя, что это isp, кто-нибудь банил его подсетки, реальные посетители не отваливались?

Тоже сталкивался с подобным. Или целиком подсеть под капчу, или посмотреть срез трафика в метрике. Например, ходят только напрямую. Значит под капчу прямые с AS.

Викс в наших краях штука была не очень популярная. Более говенного конструктора в жизни не встречал. Никто особо и не заметит того, что эта шляпа самоустранилась.
Romanov Roman #:
Метрика отображает данные от 15-00...

Посмотрел по некоторым сайтам. Более свежее тоже отображает, только вот явно какие-то работы ведутся, некоторые виды трафика просто пропали из отчетов. Прямые, внутренние. А поисковые как срезало, на значительный процент.

swiftdenis #:
пустой рефер указан из-за того что на главную боты ломились. 

Те, кто прошли вашу капчу, пишутся в те самые внутренние переходы. Судя по скрину, в целом там мизер.

swiftdenis #:
У меня только вот эти правила стоят сейчас.

Вот подходящий топик
https://searchengines.guru/ru/forum/1075193

swiftdenis #:
Есть кто может доступным языком (я нуб в этом) объяснить как это править? 

Деактивировать то правило, которым вы бросаете под проверку все что движется. Тогда и не будет целой пачки внутренних переходов, вместо такой же пачки прямых переходов. Юзерагент прописывается любой рандомный в настройках ботоферм, так что нет смысла какие-то отдельные бросать под репрессии.

Клауд это не готовый сервис под ключ, где все включено. Это белый лист. Настройки того, как это будет работать, делаете вы. Но для этого должно быть хотя-бы какое-то внутреннее понимание логики его работы. Слепое перепечатывание абы чего в интернетах принесет больше вреда, чем пользы.

manderson #:
поддержка Yoast для WordPress ссылается на заявление Google о том, что этого делать не нужно.

Ну вроде взрослый человек, а до сих пор верите в сказки. Гугл не раз ловили на откровенном вранье, по поводу той же песочницы, ну и целой пачки того что всплыло в последнем сливе с кусками алгоритма ранжирования.
Yoast я бы не стал записывать в авторитеты, как по мне - перепиаренная бесполезная пустышка. А в ссылке в топике - личное мнение какой-то непонятной девушки из техподдержки, а не какая-то официальная позиция Гугл (см. чуть выше).

Ну и самое главное: при чем здесь ляпание языком разных ББС (бабка бабке сказала) со ссылкой на Гугл, если речь про фильтры Яндекса?

Mnlaw #:

Я вот все думаю, а почему вы сканирующих ботов и плохих разъединили. И там и там идет условие ИЛИ. Но плохих вы блочите, а скану интерактив делаете. Или среди сканирующих может что то  хорошее затесаться? Или это связано с HTTP 1, где люди могут оказаться?

Те, кто бездумно перепечатывают в интернетах мануалы не первой свежести, бездумно ставя http1 под капчу, сами же себе делают бяку. Часть вполне легитимных запросов некоторые браузеры делают по этому протоколу.
Что ВПНщики, что искатели дыр и уязвимостей, что сканеры и парсеры, что ддосеры - используют одну и ту же инфраструктуру. Поэтому, забаните сканеров - забаните клиентов с ВПН. 

Mnlaw #:
Спасибо. Эх, дали бы они возможность выгружать в Эксель. Там бы сразу сортировку сделать и все как на ладони. 

Они и сделали все как на ладони. Прямо в Events. С графиками, аналитикой, разбивкой по страницам, подсетям, странам, user agent и прочим. Просто этот функционал доступен только начиная с PRO тарифа.

А на FREE приходится активно пользоваться фильтрами Cloudflare в связке с метрикой, чтобы составить себе ту или иную картину.

Здесь на форуме попадалось в обсуждениях, умельцы из логов сервера загоняют в эксель данные и там уже преобразуют, получая аналог клаудовских PRO отчетов.

уу

уу

manderson :
Условно /author и /author/page/2 содержали идентичный title и description, но разный контент.

Первый вопрос, который же возник при прочтении - это почему все /page/ не закинуты в ноиндекс. Это же стандартный функционал в тех же сео плагинах.

Всего: 1326