Yandex и Google показывают давно умершие странички

[Удален]
639

Уважаемые господа, уважаемые дамы, товарищи!

Yandex и Google показывают ссылки на странички, которых нет на сайте уже более месяца.

Сайт сделали полностью новый и переехали на новый хостинг.

Что лучше сделать, чтобы из поисковиков исчезли эти старые ссылки?

Я пока предполагаю тупо вписать в robot.txt:

User-agent: *

Disallow: /file_name_1

Disallow: /file_name_2

Disallow: /file_name_3

Скажите, насколько это правильное или неправильное решение?

И ещё. Правда ли что лучше сделать 301 редирект на URL с приставкой www? Вот мне пишут из Demis Group:

1. Логическая страница сайта имеет более одного URL.
На сайте обнаружены страницы, доступные по разным адресам, но с одинаковым содержимым. Это могут быть полные дубли страниц, с точностью до буквы, а могут быть сильно похожие страницы, например таковыми являются страницы со списком товаров отсортированными в разном порядке (фактически текст тот же, но в другом порядке). Поисковые системы воспринимают это как дублирование содержимого страниц и, в лучшем случае, исключают дублирующиеся страницы из поисковой выдачи, а в худшем, накладывают на сайт штрафные санкции (бан), что крайне пагубно сказывается на всем сайте и его положении в поисковой выдаче.
В простейшем случаем решение данной проблемы осуществляется сокрытием от индексации (посредством тегов noindex, аттрибута nofollow у ссылки и необходимыми правилами в файле robots.txt) блоков, являющихся причиной появления полных или частичных дублей, например, блока сортировки товаров в каталоге. В некоторых случаях, причина — логика работы системы управления сайтом и, в этом случае, дать однозначных рекомендаций нельзя, к каждому такому случаю нужен уникальный подход. Помимо сокрытия страниц от индексации необходимо поставить перенаправление с кодом 301 (постоянный редирект) с дублирующей страницы на основную и заменить все соответствующие ссылки на сайте.
Ниже представлены найденные на сайте дубли страниц. При одобрении данного вида правок с клиентом мы самостоятельно устраним подобные дубли.
Дубли образованы из-за отсутсвия редиректа с domain.com на www.domain.com или www.domain.com → domain.com
[Удален]
#1

На сколько мне известно noindex и аттрибут nofollow сейчас работаю не так как раньше, с атрибутом nofollow вес не передается, но теряется.

А на счет www или без, это ИМХО дело вкуса, я перенаправляю на "без".

На счет удаленных страниц в индексе, у меня была похожая ситуация (висели в индексе 2 месяца) ИМХО лучший вариант это редирект 301, если уместно, если нет, то 404

J
На сайте с 06.03.2012
Offline
38
#2

Ручное удаление страниц в индексе

Яндекс:webmaster.yandex.ru/delurl.xml

Google: google.com/webmasters/tools/

series60
На сайте с 03.02.2009
Offline
92
#3
Что лучше сделать, чтобы из поисковиков исчезли эти старые ссылки?

robots.txt

И ещё. Правда ли что лучше сделать 301 редирект на URL с приставкой www? Вот мне пишут из Demis Group:

Дело вкуса конечно, но я бы обратил внимание на поисковую выдачу, и принял решение.

Mellifleur
На сайте с 06.05.2011
Offline
57
#4

Если ваш сайт уже в индексте решать с www или без решать уже поздно, а редирект делать глупо, это выставляется в роботс.

Страницы что в индексе, по которым все еще пытаются получить информацию должны быть с редиректом на "туда" где они сейчас есть. Это хорошо как для пользователей так и для ПС.

Хороший хостинг (http://webhost1.ru/?r=16541) - сам пользуюсь и вам рекомендую. Аптайм, время отклика и загрузка на 5!.
[Удален]
#5

Спасибо всем.

Только я не пойму главного - почему они заявляют, что на сайте дубли страниц?

Разве поисковик расценивает www.site.com/xyi.html и site.com/xyi.html как две разные страницы?

87793
На сайте с 12.09.2009
Offline
661
#6
Mellifleur:
Страницы что в индексе, по которым все еще пытаются получить информацию должны быть с редиректом на "туда" где они сейчас есть. Это хорошо как для пользователей так и для ПС.

Точно так!

Наше дело правое - не мешать левому!
[Удален]
#7

Но этих страниц уже нет на сайте.

Вообще их нет, они не нужны.

В общем я сейчас вручную в Яндексе вбивал URLs и удалял страницы.

Вдобавок, как советовали, в robots.txt прописал Disallow для каждой этой страницы.

Ещё главным зеркалом сайта задал domain.com вместо www.domain.com (сейчас основное зеркало).

Не знаете через сколько дней Яндекс всё это поменяет?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий