Федор Майков

Рейтинг
2
Регистрация
27.06.2011
tuz:
Продвигал крупные сайты объявлений.

Не нужно мудрить, все просто. Не существующие страницы должны отдавать 404 Not Found. (хелп Яндекса, если кто забыл).

Так было настроено на двух крупных сайтах объявлений. Проблем не возникало. Поэтому рекомендую 404.

а у меня возникло. Сделали обновление базы, удалили несколько тысяч страниц, пришло письмо в вордстат об ошибках, попали под фильтр.

Федор Майков добавил 07-09-2011 в 18:37

MASe:
а что это за фильтр такой?
вот удивятся веб-мастера, которые полностью меняя структуру сайта (или CMS), и как следствие УРЛы ставили на старых страницах редиректы на новые

Одно дело прописывать редирект при смене адресов страниц (переход на новую cms или другие адекватные причины. Сам ни раз прописывал и проблем не возникало), но другое - замена 404 на 301. Это подозрительно выглядит, поскольку страница для перенаправления одна.

Федор Майков добавил 07-09-2011 в 18:52

в случае когда у нас N cтраниц редиректят на одну, возникает ситуация, когда мы собираем трафик на множество страниц и сливаем его на одну. А кто его знает что у нас на этой странице, может там детское порно.

Dram, отписано, ждем ответа.

Федор Майков добавил 07-09-2011 в 17:52

Нет:
Простите, а какой тогда смысл это в индекс совать, если активное оно меньше суток?

Ну там не все объекты меньше суток актуальны - продажа долго висит. Аренда - какие то объекты долго, какие то нет. Тем не менее, мы не можем априорно определить описания каких объектов следует уникализировать, а какие оставить в исходном виде.

Да и вопрос, собственно, не в том что б страницы с временем жизни меньше суток в индекс загнать, а в том что б своими действиями не повлечь наложение фильтра или снижение скорости индексации сайта.

"Избыточное автоматическое перенаправление (редиректы). По возможности избегайте использования редиректов. Редирект может быть полезен только в том случае, если адреса страниц меняются по техническим причинам и необходимо перенаправить пользователя на новый адрес страницы." (с) Яндекс

я фик знает, достаточно ли у меня основания, что б вместо 404 отдавать 301

а насчет 3 вариант "Soft 404. Одна из распространенных ошибок заключается в замене сообщения об ошибке 404 (страница не найдена) для несуществующих страниц на страницу-заглушку, которая возвращается с кодом ответа 200 (ОК). В этом случае поисковая система считает, что страница с некорректным адресом существует, и не удаляет ее из своей базы. Это приводит к более медленному индексированию полезных страниц на сайте."

У нас не заглушка, но суть та же - страница останется в базе => замедлится индексация сайта.

тоесть всеравно придется вешать <meta name="robots" content="noindex, nofollow"/> на страницу

Федор Майков добавил 07-09-2011 в 17:09

dustyo_O:
Федор Майков, вы сами обновляете базу недвижимости? Если да, и контент пишете уникальный, то одно дело. А если безответственные пользователи, то ваш контент на многих сайтах окажется..

Да ну бросьте, кто будет уник на базу недвижимости писать - это ж десятки тысяч объектов, которые сегодня утром появились, а к обеду уже уши в архив. Пока заморачиваешься с уником - квартиру уже снимут.

И я, собственно, не сильно парюсь по этому поводу - викимарт живет с неуник. и не жалуется.

Контент предоставляют риэлторы.

_vb_:
Интересная тема, кстати. Я бы выбрал вариант 3. Но не просто писать на страницах старых обьектов, что он снят с публикации, но и давать ссылку на список аналогичных актуальных предложений.
А по поводу засорения индекса ПС - пусть у ПС об этом голова болит.

Есть мнение что при большом количестве бесполезных страниц скорость индексации замедляется.

Федор Майков добавил 07-09-2011 в 15:16

dustyo_O:

Я бы остановился на 301 в соотвествующий раздел или на главную как агрресивном методе для сохранения тех ссылок, которые будут проставлены на эти объявления, либо на 404 как более естественном варианте.

Чрезмерный 301 редирект может привести к фильтрации, нельзя им злоупотреблять, тем более тут объемы большие будут. Одно дело когда редирект ведет на разные страницы, другое - когда на одну. Получается какая то дорвейная логика - собираем траф на большое кол-во страниц и сливаем все на одну.

Когда отдавали 404 - схватили фильтрацию, после того как дропнули старые объекты. Теперь черт его знает как выходить из под фильтра. Так как не понятно АГС это или нет.

Федор Майков добавил 07-09-2011 в 15:18

Нет:
dustyo_O

Федор Майков, может в роботсе их закрывать и все?

Роботс огромный будет. Структура сайта не позволяет создавать правило для исключения, можно только персонально каждую страницу закрывать.

Но можно не роботсом, а через <meta name="robots" content="noindex, nofollow"/>

lobity2:
Та-же проблема. Сделал сайт, набрал ссылок. До сегодняшнего дня все в индексе было (сотня с лишним) - сейчас 0. Порядка 2к ссылок на сайт. Проект запущен в середине мая. Ссылки не продаю.
Но при поиске сайт отображается (!!!).
Может из-за большого числа входящих ссылок?

При этом подобный проект уже давно висит в индексе.

За 2 месяца Вы слишком сильно увлеклись закупкой ссылок.

И проверьте сайт на АГС, возможно тексты требуют правок.

Askal:
в вебмастере показует 200 страниц а в поиске 17.... что это такое?

Аналогичная ситуация. В вебмастере 5 страниц, в поиске страниц нет.