Нужно ли закрывать от индексации несуществующие страницы?

SB
На сайте с 06.11.2011
Offline
11
1050

Всех с наступившим Новым Годом.

Поделитесь пожалуйста опытом. На старом домене решил сделать новый сайт. В панели вебмастера вижу что Яндекс схавал более 2000 страниц (которых уже нет, так как ставлю новый движок сайта).

Вопрос: обязательно ли в robots.txt закрывать для индексации старые, несуществующие страницы старого движка, либо забить на это и пользы не будет?

p.s.: постарался как можно менее сумбурно изложить вопрос ). Заранее спасибо.

Предлагаю выгодное приватное решение для конверта Вашего трафика. Принимается трафик с доров и белых проектов. Обращайтесь в личку.
MV
На сайте с 14.12.2010
Offline
74
#1

у меня до сих пор в индексе яндекса страницы, которых нет физически уже больше года

Циклевка полов (http://www.profi-parket.ru/ciklevka/) и паркетные работы в Москве (http://www.profi-parket.ru/about/) и Московской области
Sentoro
На сайте с 18.03.2007
Offline
149
#2

Site Builder, Если страницы отдают 404 ошибку, выпадут сами.

MikhailVD, увеличиваете процент отказов? :)

Продается СДЛ на тему инвестирования (http://www.telderi.ru/ru/viewsite/903457)
mark3000
На сайте с 29.08.2009
Offline
115
#3

Нет не надо, просто проследите что бы на эти страницы не вели ссылки и они как было сказано выше отдавали 404 ошибку.

LINKOSCOP 4.2 (http://www.interascope.biz/linkoscop-4/) это 100+ функций для работы с внутренней перелинковкой

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий