Виктор Петров

Виктор Петров
Рейтинг
240
Регистрация
05.01.2020
Ребята, не стоит вскрывать эту тему
alaev #:
С накруткой к Петрову в личку

Я пас. Для меня это лишь один из инструментов, и не самый важный. В данном конкретном случае до накруток надо дорабатывать сайт (семантику и структуру), теоретически может хватить только этого.

andrey1984 #:

Это троллинг? Я написал "фильтр", человек ответил "бан", вы спрашиваете за бан с меня.

Я не спрашиваю "за", я для себя интересуюсь. Бан упоминался, против этого термина никто не возражал.
Фильтр - не наказание, это просто несоответствие какому-то порогу, в плюс или минус. И как по мне - речь именно о непроработанной семантике. Фильтратора нет, подкатегорий нет, только теги. Я бы с этого начал, исходя из структуры страниц категорий по топам - и лучше московским.

SeVlad #:
Да, я не могу обосновать твой бред о плодящихся параметрах в урлах и пр. Это всё ты придумал

Начерта мне придумывать-то? Есть проблема, есть устоявшееся название этой проблемы. Зайди в Гугл, вбей crawler trap, или googlebot trap - тема в бурже обмусолена плотно. Тема реальна, если ты с этим не сталкивался - ну, бывает.

SeVlad #:
"Я не веду списки плагинов, генерирующих версии файлов" - это аргумент на вопрос "какие плагины это делают"?

А что не так? Я порыл логи, я диагностировал аномалию, я нашёл проблемный плагин. Заменил или изменил настройки. Что не так, если я не стал запоминать его название? Мне оно вообще зачем? Меня интересует решение проблемы, а не занесение какой-то балалайки в список стрёмных.

andrey1984 #:
Про бан (фильтр) писал выше.

А бан-то есть? Если бы был бан, вы бы вообще в выдаче отсутствовали. Если же говорить о запросе "официальный склад..." по вашему городу, а с топонимом - и по Мск. Либо я чего-то не понял.
Как по мне - не в ПФ дело, скорее, в семантике и структуре страниц.
Как минимум, я бы это потестировал, если же не поможет - то вот хороший вариант:

alaev #:
2. Делаете новый сайт, новый домен.
andrey1984 #:
но то ж я, а есть профи.

Знаю пачку профи, которые формально только крутят, по факту же лишь гонят чистый, бесполезнейший бототраф на сайт клиента.
Рост трафа до января 2021 - органический, за счёт оптимизации, с топами по ВЧ и СЧ, никаких накруток. С января 2021 - только накрутки на посадочные страницы, утратившие текстовую релевантность. Те, кто ведёт сайт, этого даже не замечают.
Вот траф. Рост до января - чистая органика за счёт оптимизации. С января - только накрутки на посадки, потерявшие текстовую релевантность.

А вот видимость в поиске:

Пристойные запросы сместились в топ-20-40, куда никто никогда не зайдёт. Сайт не под фильтром, просто уже не соответствует требованиям Яндекса, а одних накруток - недостаточно.

SeVlad #:
1. Какая была проблема? Что ты устранил?

Бгг. Crawler Trap. В ряде случаев достаточно внести правки в настройки плагина. В ряде - просто снести плагин и использовать другой.

SeVlad #:
2. какие плагины кешироввания " генерируют бесконечное количество версий картинок, css и js. Как подорванные."

Я не веду списков, я провожу аудиты и обнаруживаю проблему. Ты же не думаешь, что фактически любой плагин может в одной из версий не начать косячить, но это будет исправлено в ближайшем апдейте?

SeVlad #:
И что значит "версии" в твоём понимании? В чем их отличие?

*.css?v=sdfks83776asjdjahqweqwe123qweqwe
Так понятнее?

SeVlad #:
И не увиливай от вопроса:

а) Ты либо не понимаешь, о чём я говорю, либо делаешь вид, что не понимаешь. Повторю: речь о ловушках для краулеров. Они получаются чаще всего в результате кривых плагинов кэширования, кольцевых редиректов, проблем с куками и session id и много чем ещё. 
б) Почитай о краулинговом бюджете (он же - лимит сканирования). У гуглобота он достаточно жёсткий. Если сайт гоняет гуглобота по кольцу или предоставляет тонны постоянно обновляемых и генерируемых URL, которые гуглобот считает необходимым просканировать - у него просто не остаётся ресурсов на те URL, которые ему действительно надо бы просканировать.
Надеюсь, я выразился понятно.

SeVlad #:
Или как понимать твоё "поселиться в кривых плагинах кеширования"? (что опять же безграмотный бред: сам кеш не находится в плагинах.)

Давай я тебе намекну более прозрачно: некоторые плагины кэширования генерируют бесконечное количество версий картинок, css и js. Как подорванные. В силу архитектуры Яше это пополам. А вот Гоше - нет, он способен сдохнуть, сканируя все эти версии. 

andrey1984 #:

либо накрутить ботами-переходами так, чтобы по названию моей фирмы сайт находился на первой позиции?

Только с оплатой по факту выполнения услуги.

Что-то я сомневаюсь, что кто-то возьмётся без стопроцентной предоплаты. С самого начала подразумеваются вложения достаточно некислые по бюджетам и ресурсам: отдельная машинка, прокси, отработка семантики, настройки, мониторинг, корректировки - а результат вовсе не гарантирован. Накрутки - это как хорошая обувь для бега: упрощает процесс и даёт некоторые преимущества по сравнению с дешёвыми кедами. Но не более.
SeVlad #:
Кривость плагинов никак не связана  с "поселением" гугла. Вот вообще никак (если только из-за него не возникает запрет на индексацию, но этот случай противоречит твоему "поселится"). И ты в принципе не понимаешь что такое "кривой" плагин.

Не буду спорить. Просто только за последний год именно на этой теме мне удалось получить некислый такой рост в Гугле у нескольких сайтов на WP, просто обнаружив и устранив вот такую проблему. Мне платят за результаты, а не за теоретизирование.

SeVlad #:
непонимание почему боты ПС сканируют именно кеш

Я упоминал сканирование кэша? Читай внимательно, я упоминал именно плагины.

Всего: 4434