NonexisT

NonexisT
Рейтинг
125
Регистрация
05.02.2009
Он же не одни и те же страницы перелопачивает с 404? Если сервер не вывозит - закрывайте в роботсе. В остальном это всё в пользу бедных. Закроешь всё в роботс - робот просто станет меньше страниц обходить, при этом он о закрытых в роботсе страницах не забудет. 
Я вот расчехлил домен, который пол года назад полностью был закрыт к индексации, если не год - сегодня 900 страниц 404 показывает Яндекс, хотя на сайте 6 двухсотых. 
Попробуйте Disallow: *?view=
serp_1 #:
Да не для вас это сделали)

Они ничего не сделали)

Ну обосрались и обосрались, как и со статистикой в вебмастере до этого обосрались, я бы больше удивился если бы они реально внедрили фильтрацию, которая более точно отражает реальную картину посещений сайта пользователями и роботами) Вот так же собственно работает и их антифрод система) Так что крутите дальше)
Дмитрий Громов #:

Отсутствие значительных изменений в статистике - это нормально. Это говорит о том, что новый алгоритм определения роботов вызвал несильное расхождение с предыдущим алгоритмом фильтрации.

Прямые заходы не определяют визит, как роботный. Возможно, пользователь перешел на ваш сайт из своих закладок. Чтобы определить визит как роботный Метрика учитывает множество технических и поведенческих факторов. 

Горшочек, не вари.

Может только с момента включения начинает работать, а то как-то совсем стыдно, думал будет плохо, но не на столько)
У меня так было, когда cloudflare стоял.
То, что мертво, умереть не может.
seo-kalipso #:

Так самый главный вопрос вы это чисто косметически сделаете, или на уровне алгоритма будете фильтровать что бы они сайты не валили. Сейчас они беспроблемно сайты проваливают в выдачи за счет плохих пф. 

Как бы то что в метрике их не будет, а на самом деле сайт и дальше будет страдать, толку от этого мало. В итоге вебмастер даже не узнает почему у него сайт не идет в топ. И по метрике вроде как ботов не будет. 

Скорее всего просто самых тупых ботов не будет видно в метрике, чуда не случится.
Всего: 483