В логике сформулированной вами задачи - никак. Гугл не имеет явного приоритета в ранжировании при накрутке ПФ подобным способом.
p.s. Готовьтесь также к тому, что и для Яндекса в определённый момент возникнут проблемы. Описанные вами действия перестанут оказывать позитивное влияние и видимость сайта будет сползать.
Да ничего этот шквал ботов моим сайтам не сделает. Пусть тужатся в дилетантской попытке заработать себе на краюшку хлеба.Более месяца позиции маркерных запросов релевантность не теряют.А если это и случится, значит виновник сидит перед монитором - работал неэффективно.Это моё собственное мнение, и оно имеет право на жизнь.
Именно по этой причине я и озадачен вопросом качественной аналитики, а не борьбой с школярами, возомнившими себя злоумышленниками.
Трезвые выводы. Добавлю - качество аналитики можете обеспечить только вы, предпринимая конкретные меры исходы из рабочего ситуации.
Если вы уверены (методом действенного анализа) определите, что заходы с мобильных IP вам не нужны и сможете их заблокировать, либо умело фильтровать, то заслуга в этом будет только того, кто сидит перед монитором и сработал для своей конкретной задачи эффективно. Любая система статистики - это лишь инструмент, в той или иной степени обрабатывающий и группирующий по тем или иным признаком информацию, сама аналитика - она в голове того, кто эти инструменты использует и принимает необходимые рабочие решения.
С Новым Годом!Здоровья, успехов.Такой вопрос возник. Только давайте культурно, вежливо, без взаимных упрёков в незнании SEO и матчасти.
Проанализировал я конкурентов в нише. Далеко не у всех установлена Метрика. Примерно у половины, только ГА.Я не хочу сейчас оспаривать чьё бы то ни было мнение.
Установив ГА, который, якобы, успешно отфильтровывает ботов, от их атаки сайт не избавить, но статистика будет более-менее точной, верно?
Видите ли. Любая статистика (с теми или иными предпочтениями в области учёта и фильтрации) - это своего рода очки, вы надеваете и видите некоторое преломление.
Хотите видеть реальную картинку - скачиваете как есть лог сервера, открываете его обычным текстовым редактором и смотрите как есть фактические заходы на ваш сайт и анализируете ситуацию.
Теперь касаемо ГА. Не видеть - это не значит отрицать фактически присутствующее. Так или иначе вы имеете дело со следами посещений, а не с возможностью управлять атаками на сайт. Даже когда вы запрещаете заход конкретного IP, в статистике сервера вы увидите заход и ответ 403 от вашего сервера.
Попрошу конкретно скрины, доказывающие, где clean_param срабатывает, а затем, перекрытые правилами clean_param страницы снова попадают в индекс.
От себя могу сказать, что в моей практике clean_param лучше срабатывает на новых страницах, перекрываемых правилами. Для старых (уже проиндексированных) - Disallow и принудительное удаление из индекса. Пять лет назад у меня была релевантная задача и я связывался с службой техподдержки по вопросу неточной работы clean_param, где получил разъяснение, что clean_param обеспечивает неучёт новых страниц с доп. get параметрами, а запрет индексации и поддержку принудительного удаления из индекса - Disallow, что в своё время и обеспечил. Так что в общем и в среднем задача решается, а Метрика функционально участвует только в том, чтобы классифицировать рекламный рефер и учитывать его в статистике, разделяя на рекламные каналы. Решение об индексации принимает индексирующий робот Яндекса, а не Метрика.
Неправда. Кроме того, нет никакого ранга. Именно через robots.txt можно управлять директивами индексации, Метрика может быть дополнительно прикреплена через Яндекс.Вебмастер только для того, чтобы лучше индексировать новые страницы с трафиком - это дополнительный сигнал, а не замещающий. Впрочем, Метрика может использоваться и без связи с Яндекс.Вебмастером.
Если открыть лог сервера, то можно увидеть, что изначально это входящий адрес и вне зависимости от того, есть Метрика или нет (а Метрики может и не быть, например, кому-то достаточно Гугл Аналитикса), этот адрес всё равно будет фиксироваться как входящий - хоть анализаторам лога, хоть Аналитиксом, хоть анализом лога вручную. Метрика здесь решительно непричём. Это метка рекламной системы Яндекса, а не системы статистики. Кроме того, не нужно смешивать паразитный ботовский трафик и рекламный.
О моём сайте в данной теме вообще речи не было, другие темы тут тоже не причём, пальцем в небо..
Доброго времени суток. У меня такой вопрос к специалистам. У меня сайт интернет магазин у которого около 5500 страниц, это категории, инфо страницы и карточки товаров. За два года внутренние ссылки выросли почти до 6-ти. миллионов. Скажите пожалуйста, это нормально или нет ?
6 мнл. ссылок на 5500 страниц многовато. Проверяйте структуру и ссылочную адресацию, возможно на сайте есть огромное кол-во внутренних дублей, служебной статистики ссылки которых попадают в общий переобход. Словом, проверяйте рабочую адресацию, можно на сайте есть рабочие области, которые генерируют огромное кол-во ненужных ссылок.
Это не счётчик, ymclid - это идентификатор Яндекс.Маркета
Компоненты движка могут ошибочно формировать дополнительные относительные ссылки, которые плюсом к корневому адресу страницы могут генерировать доп. копии страницы. Вероятно эти ссылки есть в коде ваших страниц, по ним поисковый робот и переходит, фиксируя новые адреса.
Постоянно и докупаются, причём с запасом перед следующей покупкой. Если бизнес не развивается, он стагнирует.