Я пас. Для меня это лишь один из инструментов, и не самый важный. В данном конкретном случае до накруток надо дорабатывать сайт (семантику и структуру), теоретически может хватить только этого.
Это троллинг? Я написал "фильтр", человек ответил "бан", вы спрашиваете за бан с меня.
Я не спрашиваю "за", я для себя интересуюсь. Бан упоминался, против этого термина никто не возражал. Фильтр - не наказание, это просто несоответствие какому-то порогу, в плюс или минус. И как по мне - речь именно о непроработанной семантике. Фильтратора нет, подкатегорий нет, только теги. Я бы с этого начал, исходя из структуры страниц категорий по топам - и лучше московским.
Начерта мне придумывать-то? Есть проблема, есть устоявшееся название этой проблемы. Зайди в Гугл, вбей crawler trap, или googlebot trap - тема в бурже обмусолена плотно. Тема реальна, если ты с этим не сталкивался - ну, бывает.
А что не так? Я порыл логи, я диагностировал аномалию, я нашёл проблемный плагин. Заменил или изменил настройки. Что не так, если я не стал запоминать его название? Мне оно вообще зачем? Меня интересует решение проблемы, а не занесение какой-то балалайки в список стрёмных.
А бан-то есть? Если бы был бан, вы бы вообще в выдаче отсутствовали. Если же говорить о запросе "официальный склад..." по вашему городу, а с топонимом - и по Мск. Либо я чего-то не понял.Как по мне - не в ПФ дело, скорее, в семантике и структуре страниц.Как минимум, я бы это потестировал, если же не поможет - то вот хороший вариант:
Знаю пачку профи, которые формально только крутят, по факту же лишь гонят чистый, бесполезнейший бототраф на сайт клиента.Рост трафа до января 2021 - органический, за счёт оптимизации, с топами по ВЧ и СЧ, никаких накруток. С января 2021 - только накрутки на посадочные страницы, утратившие текстовую релевантность. Те, кто ведёт сайт, этого даже не замечают.
А вот видимость в поиске:
Пристойные запросы сместились в топ-20-40, куда никто никогда не зайдёт. Сайт не под фильтром, просто уже не соответствует требованиям Яндекса, а одних накруток - недостаточно.
Бгг. Crawler Trap. В ряде случаев достаточно внести правки в настройки плагина. В ряде - просто снести плагин и использовать другой.
Я не веду списков, я провожу аудиты и обнаруживаю проблему. Ты же не думаешь, что фактически любой плагин может в одной из версий не начать косячить, но это будет исправлено в ближайшем апдейте?
*.css?v=sdfks83776asjdjahqweqwe123qweqweТак понятнее?
а) Ты либо не понимаешь, о чём я говорю, либо делаешь вид, что не понимаешь. Повторю: речь о ловушках для краулеров. Они получаются чаще всего в результате кривых плагинов кэширования, кольцевых редиректов, проблем с куками и session id и много чем ещё. б) Почитай о краулинговом бюджете (он же - лимит сканирования). У гуглобота он достаточно жёсткий. Если сайт гоняет гуглобота по кольцу или предоставляет тонны постоянно обновляемых и генерируемых URL, которые гуглобот считает необходимым просканировать - у него просто не остаётся ресурсов на те URL, которые ему действительно надо бы просканировать.Надеюсь, я выразился понятно.
Давай я тебе намекну более прозрачно: некоторые плагины кэширования генерируют бесконечное количество версий картинок, css и js. Как подорванные. В силу архитектуры Яше это пополам. А вот Гоше - нет, он способен сдохнуть, сканируя все эти версии.
либо накрутить ботами-переходами так, чтобы по названию моей фирмы сайт находился на первой позиции?
Только с оплатой по факту выполнения услуги.
Не буду спорить. Просто только за последний год именно на этой теме мне удалось получить некислый такой рост в Гугле у нескольких сайтов на WP, просто обнаружив и устранив вот такую проблему. Мне платят за результаты, а не за теоретизирование.
Я упоминал сканирование кэша? Читай внимательно, я упоминал именно плагины.