а у меня возникло. Сделали обновление базы, удалили несколько тысяч страниц, пришло письмо в вордстат об ошибках, попали под фильтр.
Федор Майков добавил 07-09-2011 в 18:37
Одно дело прописывать редирект при смене адресов страниц (переход на новую cms или другие адекватные причины. Сам ни раз прописывал и проблем не возникало), но другое - замена 404 на 301. Это подозрительно выглядит, поскольку страница для перенаправления одна.
Федор Майков добавил 07-09-2011 в 18:52
в случае когда у нас N cтраниц редиректят на одну, возникает ситуация, когда мы собираем трафик на множество страниц и сливаем его на одну. А кто его знает что у нас на этой странице, может там детское порно.
Dram, отписано, ждем ответа.
Федор Майков добавил 07-09-2011 в 17:52
Ну там не все объекты меньше суток актуальны - продажа долго висит. Аренда - какие то объекты долго, какие то нет. Тем не менее, мы не можем априорно определить описания каких объектов следует уникализировать, а какие оставить в исходном виде.
Да и вопрос, собственно, не в том что б страницы с временем жизни меньше суток в индекс загнать, а в том что б своими действиями не повлечь наложение фильтра или снижение скорости индексации сайта.
"Избыточное автоматическое перенаправление (редиректы). По возможности избегайте использования редиректов. Редирект может быть полезен только в том случае, если адреса страниц меняются по техническим причинам и необходимо перенаправить пользователя на новый адрес страницы." (с) Яндекс
я фик знает, достаточно ли у меня основания, что б вместо 404 отдавать 301
а насчет 3 вариант "Soft 404. Одна из распространенных ошибок заключается в замене сообщения об ошибке 404 (страница не найдена) для несуществующих страниц на страницу-заглушку, которая возвращается с кодом ответа 200 (ОК). В этом случае поисковая система считает, что страница с некорректным адресом существует, и не удаляет ее из своей базы. Это приводит к более медленному индексированию полезных страниц на сайте."
У нас не заглушка, но суть та же - страница останется в базе => замедлится индексация сайта.
тоесть всеравно придется вешать <meta name="robots" content="noindex, nofollow"/> на страницу
Федор Майков добавил 07-09-2011 в 17:09
Да ну бросьте, кто будет уник на базу недвижимости писать - это ж десятки тысяч объектов, которые сегодня утром появились, а к обеду уже уши в архив. Пока заморачиваешься с уником - квартиру уже снимут.
И я, собственно, не сильно парюсь по этому поводу - викимарт живет с неуник. и не жалуется.
Контент предоставляют риэлторы.
Есть мнение что при большом количестве бесполезных страниц скорость индексации замедляется.
Федор Майков добавил 07-09-2011 в 15:16
Чрезмерный 301 редирект может привести к фильтрации, нельзя им злоупотреблять, тем более тут объемы большие будут. Одно дело когда редирект ведет на разные страницы, другое - когда на одну. Получается какая то дорвейная логика - собираем траф на большое кол-во страниц и сливаем все на одну.
Когда отдавали 404 - схватили фильтрацию, после того как дропнули старые объекты. Теперь черт его знает как выходить из под фильтра. Так как не понятно АГС это или нет.
Федор Майков добавил 07-09-2011 в 15:18
Роботс огромный будет. Структура сайта не позволяет создавать правило для исключения, можно только персонально каждую страницу закрывать.
Но можно не роботсом, а через <meta name="robots" content="noindex, nofollow"/>
За 2 месяца Вы слишком сильно увлеклись закупкой ссылок.
И проверьте сайт на АГС, возможно тексты требуют правок.
Аналогичная ситуация. В вебмастере 5 страниц, в поиске страниц нет.