404 или disallow в robots.txt

P
На сайте с 25.11.2008
Offline
121
505

Сложилась такая ситуация что накопилась масса 404 ошибок в GWT (счет идет на тысячи)

причин несколько - старый сайт у которого менялась CMS, менялась структура и т.д.

Подмывает сделать GWT "чистеньким" оставив в robots только нужные ветки, а остальное запретить к индексации. Хочу это сделать в надежде что гугл увидев как я борюсь с ошибками увеличит трафик.

При этом на некоторые 404 есть внешние ссылки.

Так вот не испорчу ли я позиции сайта, если закрою от индексации несуществующие страницы на которые есть внешние ссылки? Не понимаю, что важнее - внешние ссылки или чистый GWT?

В качестве примера самая простая ситуация, было site.ru/category/subcategory/article.html <- на этот материал есть внешняя ссылка

Сейчас материал переместился в site.ru/new_category/article.html а старый выдает 404.

Планирую

1. написать в robots.txt.

Allow: /new_category

Disallow: /

2. сделать 301 редирект site.ru/category/subcategory/* -> site.ru/new_category/*

Будет ли толк от этого?

Причем это самая простая ситуация, иногда 404 по внутренний ссылке, когда страниц уже впомине нет, а одна 404 ссылается на другую 404, порой диву даешься откуда гугл взял все эти url.

tpe3egol
На сайте с 01.07.2012
Offline
69
#1

Для Гугла редиректа со старой страницы на новую вполне хватит. (что касается самой простой ситуации)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий