Обновление сайта, 404 для поисковиков

MageMerlin
На сайте с 27.05.2008
Offline
77
499

Добрый день.

У меня был сайт, поднятый на общедоступной CMS (допустим джумла). Я отказался от этого движка, написал свой. Адресация стриниц, сами страницы - все изменилось. У этих двух сайтов по сути пересекается только 30% информации.

Гугл вывалил мне в консоли вебмастера кучу 404 ссылок. Что мне лучше всего сделать?

1) забить на это явление

2) проставить с помощью mod_rewrite 302 код для этил урлов

3) проставить GONE (406)

4) сделать редиррект на наиболее релевантные страницы

5) ...

Сайт естественно продвигается, поэтмоу цель - как можно меньше навредить. Дополнительно - Яша его не проиндексировал в принципе, но интересовал бы также ответ на ситуацию "И Яша тоже вываливают кучу 404"

Спасибо заранее.

Б
На сайте с 30.06.2008
Offline
200
#1

MageMerlin, а причина-то этих ошибок в чём? По каким ссылкам робот находит кривые url? Исправьте их на корректные, и будет Вам счастье.

Будь мудрее. Выгляди глупее.
MageMerlin
На сайте с 27.05.2008
Offline
77
#2

Еще раз - новый движок, новое наполнение. У меня было чер-те что (index.php?bla=1&blabla=2 и так на три строки), а сейчас аккуратный ЧПУ.

Поменялось направление сайта (был "типа" инет-магазин, сейчас - просто каталог)

Тоесть весь вопрос в том, что напрямую восстановить ссылки не могу. Могу только пометить их как 302, 406 и т.д. или вобще сделать вид что все путем и через mod_rewrite отдавать нужную страницу. Но поисковик-то разберется что раньше было 10 уникальный страниц, а теперь по ним у и тот же текст.

Итак еще раз - как же правильно разобраться с этими 404 с точки зрения оптимизации?

Б
На сайте с 30.06.2008
Offline
200
#3

MageMerlin, ещё раз: откуда поисковой машине известны старые url, которые сейчас 404? На них есть внешние или внутренние ссылки, они указаны в сайтмэпе?

MageMerlin
На сайте с 27.05.2008
Offline
77
#4

А, понял. Внешняя ссылка если и была - то только одна, на главную. потом гугл проиндексил все. Тоесть внешних нет, все взято из сайтмапа и самой структуры. Я если чесно вообще не знаю, как гугл узнал о сайте.

Б
На сайте с 30.06.2008
Offline
200
#5

MageMerlin, уже понятнее. Генерите новый sitemap, знакомьте с ним ПС. Принимайте меры к индексации контента по новым адресам. Если больше пересечений нет, для скорейшего вывода страниц со старой адресацией из индекса запретите их в роботсе.

На время, пока процессы не завершатся, сайт, естественно, просядет. Зато потом наверстаете позиции с лихвой.

MageMerlin
На сайте с 27.05.2008
Offline
77
#6

Пересечение есть. Поясняю. Раньше это был инет-магазин товаров (на каждый блок товаров было по 20 страниц бессмысленных с учетом типов сортировки и т.д.), теперь это просто каталог товаров (на каждый блок 1 страница с перечислением). Это что-то меняет?

Б
На сайте с 30.06.2008
Offline
200
#7

MageMerlin, я про фрагменты url. Если в новых адресах нет фрагмента с index.php?..., то закройте старые адреса в роботсе и заманите робота на новые страницы с ЧПУ.

Все попытки сохранить эти адреса ни к чему, раз именно от этих дублирующихся страниц Вы и избавились. Рубите лес и стройте дом.

MageMerlin
На сайте с 27.05.2008
Offline
77
#8

Спасибо большое, я понял общую идею.

И еще вопрос - как тогда лучше "субить лес"? robots.txt, 406 GONE или...?

Б
На сайте с 30.06.2008
Offline
200
#9

MageMerlin, директива Disallow в robots.txt + delurl в ПС.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий