Инструмент есть инструмент, он не в ответе за то, насколько у вас запущена ситуацию с бот трафиком.
Копать лопатой мёрзлую землю или асфальт, или бетон - занятие малоэффективное или почти бесполезное, но лопата не виновата то, куда её втыкают для вскапывания.
Повторюсь, работа с бот трафиком - забота вебмастера и тут у каждого свой путь. Я с программистом реализовывал антибот модуль в течение полугода до момента его запуска и до сих пор допиливаем необходимый функционал для расширенной аналитики.
Mik Foxi уверен, тоже делал свой модуль не один день. Кто хочет, целенаправленно и упорно действует, тот рано или поздно добьётся результата.
Если вы его фильтруете, значит частично или полностью не пропускает бот трафик на сайт. Если трафик после фильтрации не меняется, значит фильтрация не работает.
Доля остаточного бот трафика будет зависеть от того, какие решения вы для себя найдете и насколько корректно их реализуете.
Полностью заблокировать бот трафик сложно, особенно тот, что имитирует работу браузера (поведенческие боты) и обходит капчи.
Но! Основная масса бот трафика не проходит капчу, эту бОльшую массу бот трафика и нужно отсекать.
Здесь столь много гуру, которых с их слов боты боятся как огня, но в реальности кто-нибудь может похвалиться - у меня выстроена реальная система, позволяющая не пропускать ненужных ботов и не срезающая живой трафик?)
Я не знаю, какие вам видятся гуры, я писал про свои решения и наглядно их иллюстрировал с рабочими скриншотами: здесь здесь и здесь.
Вот конкретный рабочий пример, где доля отказных заходов была сокращена примерно на треть,
после чего большая часть мусора в том числе с фейковыми реферерами ушла, а позиции стали более стабильны.
Также на форуме встречал ещё двух форумчан, кто пилят свои решения.
Как минимум помню трех форумчан, кто занимается настройкой CloudFlare на заказ (правда не знаю насколько эффективно - не слежу).
Ну а про варианты блокировки Битерики, Хецнера и пр. через htaccess здесь обсуждалось многократно за последние несколько лет.
На форуме наверное уже с полтора десятка тем, связанных с вопросами фильтрации бот трафика.
Логично, что к конкретным цифрам его никто не приводит. Но одно дело когда он в пределах незначительной погрешности и другое дело, когда перекрывает живой трафик и вообще не контролируется, следовательно бизнес вообще, мягко говоря, не понимает, какие там даже приблизительные цифры живой посещаемости.
Даже на этом форуме есть специалисты, которые выполняют услуги по фильтрации бот трафика, не говоря уже о фриланс биржах, коих многие десятки и сотни.
Не пытаюсь, а более полутора десятка лет с ней работаю. И я такой далеко не один.
А тут по ситуации. Если вы бот трафик не фильтруете, то бот трафик может быть каким угодно.
Уверен, надо привлекать к работе программиста и формировать ему соответствующее техническое задание (ТЗ).
Для одного раза может и не надо, но за консультацией к программисту всё же обратиться нужно.
Впрочем, и вообще доработкой интернет-магазина без программиста заниматься тяжко, каждый раз будут всплывать нюансы, где штатными возможностями движка решать все задачи скорее всего не получится.
Гугл инструкции robots.txt может проигнорировать, так что я бы для данной задачи robots.txt вообще не рассматривал.
Да будет вам, какие мегабайты?!
Вот специально проверил - robots.txt из 500 заполненных строк,
Правильно, ноль не допечатался 👌
Я не знаю, что будет через 1000 лет (столько обычно люди не живут), но вместо Метрики, что планируете использовать?
Интернет-магазин без инструментов аналитики - это как сантехник без разводного ключа.
Что значит теряются? Не теряются, а смешиваются с бот трафиком.
Принять меры для фильтрации входящего трафика - это задача вебмастера/SEO специалиста, а не Метрики.
Вы считаете, что если вы отключаете Метрику, то бот обижаются и больше на ваш сайт не заходят? Это примерно в той же логике, что зажмуриться и думать, что происходящего вокруг не существует.
Довольно заметная часть служебных ботов приходят на сайт вне зависимости от Метрики, а потому, что сайты попадают в базы разного рода парсеров - сборщиков. Чаще всего списки для обхода составляются по тематическим топам и обновлениям доменов.
Проведите эксперимент. Уберите Метрику месяца на три, а потом верните и если у вашего сайта есть поисковый трафик, то окажется, что боты по-прежнему приходят на ваш сайт и ничего толком не поменялось.
nazvanie-tovara-01-sku.jpgnazvanie-tovara-02-sku.jpg
У меня так.И сортировать удобно по sku в общей массе, и по acf внутри карточки.
Да, как вариант - вполне, если это необходимо.
Главное, чтобы это не было -> kupit-nedorogo-nazvanie-tovara-id...
Меня возмущает не то, что вы (по моему мнению) рекомендуете решения, которые никакого отношения к проблеме не имеют, а то, что вы публично и адресно выражаете упрёки в формальности моих ответов.
Ещё раз. Не надо огульных претензий "про многие года", "это по дефолту" и прочий снобизм. Пишите свою версию предполагаемого решения без личностных характеристик. Здесь каждый волен излагать свою точку зрения.
Теперь к сути.
В выявленных обстоятельствах у человека очевидна проблема с Мимикрией, потому что в поиске целая россыпь сайтов, которые пытаются бороться за брендовым трафик этих очевидно привлекательных запросов. Поэтому про Гугловский PR (в яндексовской теме), про склейку страницы Контакты - это всё вольные гипотезы, но навязывать их только потому, что в теме появился скрин из книги Dr. MAX-а мне не нужно, я эту книжку хорошо знаю и нередко её рекомендую.
Начинать нужно c правомерности данных брендовых запросов. Если сайт - это очередной агрегатор - посредник, который пытается из поиска перехватывать чужой витальный трафик, то дело не в сайте, дело в подходе.
В первую очередь надо видеть сайт и понять какое он вообще имеет отношение к заявленной компании, а потом уже затевать споры, кто в чём прав или неправ.