borisd

Рейтинг
262
Регистрация
13.02.2008
ecliptica:
но отталкиваться от кода... Для чего

Самопис или нет, тип движка и пр. определяют стоимость разработки и поэтому эти факторы вполне могут учитываться в ранжировании и фильтрах разных нехороших. Стоимость разработки - это весомый фактор и признак. Например, на битриксе ГС-ы не клепают и на этот факт должна среагировать нейронная сеть...

Elektronic, задайте себе вопрос: Гугл собирает информацию о том, какой у вас движок, насколько уникальный шаблон (верстка)? Скорей всего да. Используются ли подобные факторы в формуле ранжирования? Так или иначе скорей всего да. Как именно учитываются эти факторы? Этого никто не знает, включая разработчиков гугла, т.к. сейчас факторы задаются не вручную (как при царе горохе), а с помощью машинного обучения строится математическая модель. Так что мозг (нейронную) поисковика вполне может переклинить так, что шаблонный шаблон (извитните за тавтологию) будет по факту являться отрицательным фактором. Чтобы точно понять, нужно экспериментировать.

YMua:
Более того, после снятия санкций,

А через какое время можно ожидать снятия санкций... вот в чем основной вопрос...

YMua:
Более того, после снятия санкций...

Да, я и не рассчитываю на полное восстановление позиций. Невозможно войти в одну реку дважды - понятно, что конкурентная среда за это время изменилась, алгоритмы поисковиков радикально поменялись (RankBrain), поведенческие и репутация изменились. Кстати, всё это выпадение также совпало с введением RankBrain, поэтому на него также грешу - логично предположить, что алгоритм рассчитывает семантику не по каждому сайту индивидуально, а по всей теме сразу и при семантической схожести всех сайтов в топе и при высокой конкуренции он мог посчитать мой сайт-донор семантически менее полным, чем акцептор, на котором фактически заканчивались многие поведенческие транзакции посетителей (а эти факторы, уверен, однозначно учитываются). А с учетом высокой конкуренции и нерезиновости топа в ТОПе этот "интеллект" организовал ротацию по аукционному принципу, о чем я уже поднимал ранее тему. Похоже, мне придется ждать перерасчета семантических факторов. Правда, насколько часто она происходит, не знаю, но уверен, это очень ресурсоемкий и не быстрый процесс (машинное обучение).

YMua, Остается вопрос: почему для части страниц эту пессимизацию гугл не применяет? Ведь на этих страницах ссылка на партнера также была.

YMua, в планах переход на https, что технически равносильно смене домена, плюс еще некоторые переделки. Посмотрим, что получится. Да и сайт этот в отличие от дропа - с репутацией, на него сотни тысяч абсолютно естественных ссылок ведут. Также поведенческие хорошие. Такое ощущение, что какой то мелочи не хватает, чтобы в гугле по всем запросам вернуться в топ. Гугл похоже сам периодически проверяет возможность снятия фильтра - периодически по разным запросам его снимает, но потом возвращает - мигание какое то роисходит.

yvcom, у меня были мысли в том же духе, но скорей всего не по причине ссылок как таковых, а по причине перетекания трафика к акцептору как конечной точке поведенческих транзакций. Хоть Гугл и отрицает учет ПФ, я совершенно не верю в это - учитывает конечно, может не напрямую, но не может не учитывать.

Что касается вечности фильтра, то в данном случае это вряд ли.. Так как судя по всему, фильтр наложен в автоматическом режиме - не на все запросы, накладывался очень медленно, больше года, некоторые запросы иногда на некоторое время возвращаются в топ, боты продолжают обходить, причем активно... А то, что автоматом наложено, должно автоматом и сниматься. Правда периоды перерасчета этих факторов мне неизвестны и они могут быть весьма длительными. Ну и плюс к тому само по себе проседание трафика является негативным фактором к репутации, в том числе и для других поисковиков, поэтому полного восстановления позиций и трафика при прочих равных я не ожидаю после снятия фильтра.

YMua:
сть такое понятие, как ссылочное эхо. Имеет место, если пропадает ссылка вместе со страницей, но думаю, что просто снятая ссылка тоже будет иметь эхо.

Это всё очень вряд ли в моем случае, тем более ссылки эти джаваскриптом генерились, да и долгое время вообще генерирующий их джаваскирпт в Disallow в robots.txt стоял - я снял запрет индексации с этого скрипта, когда проседание уже шло.

ЗЫ

Сейчас глянул по логам страницы, которые в соплях по конкурентным запросам оказались - их боты гугла продолжают обходить и довольно часто - через каждые 1-3 дня.

askary, да, ссылок было много. Сейчас только директ.

А фильтр за партнерские ссылки (если это он) снимается? Через сколько времени примерно? И почему тогда только по половине запросов выпали в сопли страницы, а не все, где эти ссылки стояли?

olegdab:
Гугл в своей справке пишет

Не всему написанному можно верить.

olegdab:
что по ссылке с nofollow робот не переходит и через ссылку не индексирует целевую страницу, также не перетекает PR

Зато посетители переходят (переходили), причем весьма активно...

olegdab:
Поисковик реагирует на изменения ссылок на следующий день, проверено.

Реагирует на что? На вес страниц? Расчет того же PR - это ресурсоемкая операция даже для одного большого сайта. Как Гугл весь интернет перерассчитывает, я даже представить не могу, поэтому, уверен, такие перерасчеты весьма редки и осуществляются не в лоб, а с некоторыми упрощениями. Это я к тому, что далеко не все рассчеты можно делать на лету.

Однако, как бы там ни было, связь эту я наблюдаю по нескольким выпавшим запросам - в сопли мой сайт уходит только при сравнении с этим сайтом.

GagarinOleg:
Может это связано с Украиной ?

Не, точно не это.

Всего: 2244