Заблочили лучший сайт. Контент качественный, роботов нет (еще месяц назад сделал для них недоступными блоки рся, а сейчас и сами все ушли), реклама - только контекст.
На вопрос "почему" - ответ "Ваш домен отклонен модерацией по причине несоответствия правилам участия в РСЯ. Рекомендуем комплексно поработать над качеством сайта, его контентом и пользовательскими метриками."
У кого-нибудь из самозанятых блокировали сайты? Может причина в договоре? Яндекс последнее время довольно часто предлагал стать самозанятым, но я не стал.
И все таки, у меня возник вопрос, каким образом запишутся куки в браузер, если метрика не будет работать?В каком месте они создаются, ну или чем?
Яндекс браузер, дополнения в остальных браузерах от яндекса. Если этого нет, то по идее не должны создаваться, если код метрики не давать посетителю. Или я еще что-то не учел?
Видимо или сбоит метрика сейчас или яндекс че-то с ней делает сейчас.
Вебвизор сегодня тормозит. У меня только до 6 утра в нем данные есть.
Естественно если новый ип, новая подсетка, новый фингерпринт браузера и все новое и это первый единичный заход, то у такого бота есть много шансов пройти.
Какие именно фингпринты вы используете в работе анитибота?
Здесь не нужно быть сеошником, итак все понятно: после порки яндексом накрутчиков в конце сентября, получаем с октября заходы с соцсетей, прямые и внутренние.
Почему? Да потому что палевно с 5-7 страницы обратно выводить улетевшие сайты за накрутку ПФ переходами из поиска , а вот прямые переходы и по ссылкам можно делать для сайта с любой видимостью. Плюс попутно убивать сайты в ТОПе переходами из поиска.
Если кто мониторит улетевших в сентябре за накрутку ПФ конкурентов, скорее всего уже обратил внимание, что эти ребятки возвращаются обратно ближе к ТОПу, и их уже видно на 2-3 странице поиска.
У меня вот есть только один вопрос: почему в этой теме нет Дмитрия Громова. Видимо, кишка тонка людям дать официальный ответ.
Пожалуй, это самая вероятная цель хозяев ботов.
Коллеги, отсечь бототрафик можно только если идентифицировать железо каждого браузера. Т.е. по отпечаткам канвас, аудио и т.д , создав свой собственный антифрод, не дожидаясь, когда это сделает яндекс. Даже если отпечатки поддельные и симулируются антидетектами, все равно у каждого браузера они должны быть постоянными (за исключением маков - там железо одинаковое, но можно этим трафом пренебречь) , иначе для накрутчика нет смысла нагуливать браузеры.
К сожалению, не программирую на php и не знаю, как это реализовать. Может кто может? Если бы создать скрипт определяющий отпечатки, потом сообща накопить их в общей базе.... а потом уже применять для блокировок... ИМХО это единственный реальный путь борьбы.
Кто-нибудь может написать скрип определяющий хотя бы отпечатки канвас?
Интересно, продолжайте :)
aleksandrbol, проверил свой проект. Есть такая же фигня.
Особенно вот этот удивил - "которые очень похожи уже представленные" - кусок из выдачи, показывающий доп. результаты, только без "на"
Ну и еще куча не тематических, особенно в последних статьях. В старых реже встречаются.
Может по регионам разные позиции, а так как в России много часовых поясов, то и такая картина.---------- Добавлено 14.02.2020 в 22:29 ----------
Думка, сайты с уязвимостью могут быть не завалены шлаком и дать "нормальные ссылки"?🤪
Проверил.
Последний экспериментальный дроп.
404 - есть, страница донора в индексе, а ссылки в серчконсоли нет.
При этом ссылки на страницы, которые в индексе - есть в серчконсоли, как и было раньше.