- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос следующий: Как нам правильно обрабатывать 404 ошибки?
(речь идет о сайте недвижимости с часто обновляемой обновляемой базой)
Описание ситуации: база сайта очень часто обновляется, при этом не только добавляются новые страницы, но и удаляются те, информация на которых устарела. Здесь под устаревшей информацией понимаются объекты недвижимости, которые по каким-либо причинам сняты с публикации или удалены. Таким образом, после каждого обновления базы мы имеем множество страниц отдающих 404 ошибку. В этой ситуации возможны 3 сценария обработки таких объектов:
1. Со всех объектов, которые не должны публиковаться мы отдаем 404. В этом случае после каждого апдейта базы мы наблюдаем прирост страниц с кодом 404 в размере несколько сотен. Апдейты проходят несколько раз в неделю.
В этом случае есть опасность понижения нашего сайта в рейтинге ПС из за большого прироста ошибок.
2. Со всех объектов снятых с публикации мы 301 редиректом отправляем пользователя на страницу, на которой сообщаем о том, что объект снят с публикации или удален и предлагаем воспользоваться поиском или выбрать из похожих объектов. Страница имеет статичный адрес и все снятые с публикации объекты отправляют пользователей на нее. (мы не формируем такую страницу для каждого объекта, на весь объем страниц с 404 приходится только одна страница на которую мы редиректим).
В этом случае есть опасность попасть под фильтр за чрезмерный редирект.
3. Мы не удаляем старые объекты, а только пишем на устаревших страницах, что объект снят с публикации и предлагаем пользователю воспользоваться поиском по сайту. Таким образом страницы устаревших объектов не меняют своего адреса и отдают код сервера 200.
В этом случае, мы засоряем индекс ПС ненужными страницами.
Данный вопрос возник в следствии того, что в один из апдейтов базы, мы удалили старые объекты, что привело к резкому приросту 404 страниц, в результате чего, в панель Яндекс.Вебмастера пришло письмо с уведомлением о том, что на нашем сайте произошел резкий прирост страниц отдающих коды ошибок. Именно с этим событием, мы связываем попадание под фильтр.
Интересная тема, кстати. Я бы выбрал вариант 3. Но не просто писать на страницах старых обьектов, что он снят с публикации, но и давать ссылку на список аналогичных актуальных предложений.
Ну и сапу на них, обязательно )))
А по поводу засорения индекса ПС - пусть у ПС об этом голова болит.
Имхо лучше всего вариант второй, не стоит засорять яндекс запросами которые вам уже не нужны. Лучше 1000 страниц с нормальными актуальными запросами, чем 10000 в заднице.
Присоединюсь к варианту 3. Страницы с архивными объектами можно использовать для оптимизации сайта.
Мне больше понравился вариант 3, но есть риск того, что поисковик посчитает новую страницу очень похожей на старую (тем более, что они по одному шаблону). Если точки входа посетителей другие страницы сайта, а не страницы с объектами (по запросам, по которым вас ищут) то данным риском можно, имхо, смело пренебречь.
Мда проблема в тематике... для нового сайта особенно... ИМХО
Идеалы Яндекса полноценно тут неприменимы.
p.s. а если все гуд с сайтами то .... делайте сайты под сапу в этом стиле))) ИМХО
Интересное мнение. Попытаюсь разъяснить, почему плох вариант 3.
1) Это может привести к низкой уникальности контента на сайте. Будет много похожих предложений, некоторые квартиры будут выставляться дважды, что даст полные дубли - все это снижает ценность того плюса, что на сайте станет больше страниц.
2) Реализация может пострадать - при набивании заведомо отсутствующего предложения вы можете также начать отдавать "предложение снято", что сделает сайт уязвимым к засорению дублями.
3) По стуку, или при других условиях, если модератор решит что доступная к индексации информация не представляет интереса для пользователей, можно нахватать трудноотлавливаемые фильтры/пессимизации, или даже агс (что, конечно, проще отловить, но от этого не легче))
Я бы остановился на 301 в соотвествующий раздел или на главную как агрресивном методе для сохранения тех ссылок, которые будут проставлены на эти объявления, либо на 404 как более естественном варианте.
dustyo_O, агс - это малодостижимая крайность, имхо. Выставление квартиры на продажу сразу после покупки крайне редкое событие (то есть полные дубли маловероятны).
Федор Майков, может в роботсе их закрывать и все?
Интересная тема, кстати. Я бы выбрал вариант 3. Но не просто писать на страницах старых обьектов, что он снят с публикации, но и давать ссылку на список аналогичных актуальных предложений.
А по поводу засорения индекса ПС - пусть у ПС об этом голова болит.
Есть мнение что при большом количестве бесполезных страниц скорость индексации замедляется.
Федор Майков добавил 07-09-2011 в 15:16
Я бы остановился на 301 в соотвествующий раздел или на главную как агрресивном методе для сохранения тех ссылок, которые будут проставлены на эти объявления, либо на 404 как более естественном варианте.
Чрезмерный 301 редирект может привести к фильтрации, нельзя им злоупотреблять, тем более тут объемы большие будут. Одно дело когда редирект ведет на разные страницы, другое - когда на одну. Получается какая то дорвейная логика - собираем траф на большое кол-во страниц и сливаем все на одну.
Когда отдавали 404 - схватили фильтрацию, после того как дропнули старые объекты. Теперь черт его знает как выходить из под фильтра. Так как не понятно АГС это или нет.
Федор Майков добавил 07-09-2011 в 15:18
dustyo_O
Федор Майков, может в роботсе их закрывать и все?
Роботс огромный будет. Структура сайта не позволяет создавать правило для исключения, можно только персонально каждую страницу закрывать.
Но можно не роботсом, а через <meta name="robots" content="noindex, nofollow"/>
Есть мнение что при большом количестве бесполезных страниц скорость индексации замедляется.
Полезность/бесполезность страницы с точки зрения поисковиков - вопрос довольно запутанный. Гугл, например, считает страницу "малоценной" если видим ссылки и только ссылки
Но контент то на этих архивных страницах будет, причем уникальный, а не дублированный.
я за вариант 3, так как поисковику это контент, а человеку попавшему туда - он сам перейдет, куда надо или будет искать уже по сайту. Думаю, что надо заботиться о пользователе больше, чем о ПС и заставить пользователя остаться на сайте.