Хм, да действительно, у части операторов не работает.
Попробуй поменять айпи на хостинге.
А где на скрине инфа, что у кого-то из провайдеров сайт не работает? Там же как раз для всех 200 прилетело с примерно одинаковым временем ответа сервера
Спроси у хостера не блокируют ли они айпи гугл бота?
Наверное, в этом случае в серч консоли Гугла прилетали бы какие-то ошибки, предупреждения о проблемах с индексацией. Разве нет? Вроде на моем хостинге что на новом, что на старом хостеры самостоятельно не блокируют никаких ip и подсетей. Но с Гуглом был грешок на самом деле, от пф ботов скрывалась метрика и случайно для всех гугл ботов тоже метрику скрыли, т.е живым отдавался сайт с метрикой, Гуглботу - без метрики в течение пары лет). Непонятно, может за клоакинг гугл немного пессемизировал, если это попадает под клоакинг, конечно
li и метрика могут давать разные результаты, глубина просмотров раза в два может отличаться
Тоже нету пока. Не сбп. Похоже пока только сбп присылают
Ну вот смотрите: предположим, заходит к вам бот какого-то британского образовательного учреждения в поисках материала, который могли сплагиатить у вас тамошние студенты для своих дипломных работ. Причём не просто заходит, а сканирует ваш сайт сверху донизу с частотой 3-5 запросов в секунду. Можно, конечно, скрыть от него метрику – но смысл вообще пускать его к ядру сайта? Это же во всех движках – куча процедур для показа страниц с контентом, смысл грузить сервер? «Чао, бамбино, сорри» на первом шаге с выдачей кода заголовка 404 и жёсткое прерывание всех последующих процедур, всё.
И другой вариант: опять бот, но на сей раз предположительно, потому как с подсети, откуда мог бы и живой чатланин пожаловать. Запросы с интервалом в три-пять секунд. Да ещё и потенциально полезный (ну скажем, applebot, или mail.ru, или chatgpt, мало ли, вдруг они инфу для поисковой выдачи собирают, ох, сейчас Алаев на меня ругаться будет за такие заявления, ну да ладно). Вот тут уже можно и к ядру, осторожненько и без Метрики.
Короче, это вопрос из серии – на метро или на машине? Да смотря куда ехать.
Только оговорюсь, делать это htaccess'ом – так себе идея. Блокировка ИМХО должна работать динамически, по алгоритмам. У меня, к примеру, если бот последовательно в течение некоего периода времени сначала шлёт запросы 3 раза в секунду, затем пошёл сканировать URL типа /сайт/wp-content/dropdown.php, затем полез в cgi-bin или принялся искать сертификаты – автоматически влетает в бан уже на период времени из профилактических соображений. Кстати, помогает – часть незваных гостей на этом этапе отваливается на недельку, на месяц или вообще больше не возвращается.
Сори, имел ввиду в вопросе именно пф ботов с работающим js, обходящих капчу, которых и метрика не всегда различает от реальных людей. Краулеры, которые просто массово сканируют страницы курлом и так блокируются системой сайтов уже лет этак 10, с ними, думаю, и так все понятно. Речь о тех ботах, которых можно отличить разве что по действиям в вебвизоре.