Как убрать из индекса дублированные страницы?

12
7P
На сайте с 23.04.2010
Offline
78
1609

Привет всем!

Вот какая проблема. Сайт сделан на Джумле. Поисковики его проиндексировали. Потом я включил ЧПУ. Поисковики его проиндексировали поновой. И получилось так, что в индекс попали и старые страницы, и новые. Как убрать теперь оттуда старые, не знаю.

С Гуглом понятно, запретить их в роботсе, и поудалять через панель вебмастера вручную.

А вот как быть с Яндексом? Там вроде нет такого...

Kory
На сайте с 27.11.2006
Offline
297
#1

http://help.yandex.ru/webmaster/?id=996567#1022359

вот тут почитайте про это.

Собираю статистику по НЧ.
7P
На сайте с 23.04.2010
Offline
78
#2

Директива Crawl-delay?

Честно говоря не понял. А поподробнее, если можно

[Удален]
#3

7aPu6aJIbDu, зависит от вида урлов. Приведите примеры.

Вообще, если старые отдают 404 - Яндекс их удалит уже через неделю-полторы.

XTR добавил 17.05.2010 в 20:31

7aPu6aJIbDu:
Директива Crawl-delay?
Честно говоря не понял. А поподробнее, если можно

Нет, Clean-param. Но, она нужна не для удаления старых урлов, а для cgi-параметров, которые могут расплодить дубли для одной страницы (что на форумах часто бывает)

RD
На сайте с 06.07.2007
Offline
52
#4

301 редирект вам в помощь

[Удален]
#5
ru-design:
301 редирект вам в помощь

Вы же видите, что человек не в теме. Зачем советовать сложные вещи сразу?

Сначала надо понять детали проблемы, а потом кидаться пафосными фразами.

7P
На сайте с 23.04.2010
Offline
78
#6

Пример:

домен/index.php?option=com_content&view=category&layout=blog&id=4&Itemid=7

домен/мое название

Обе ссылки отображают одну и ту же страницу и работают

[Удален]
#7
7aPu6aJIbDu:
Пример:
домен/index.php?option=com_content&view=category&layout=blog&id=4&Itemid=7
домен/мое название
Обе ссылки отображают одну и ту же страницу и работают

В роботс запиши и всо!

7P
На сайте с 23.04.2010
Offline
78
#8
Trofa:
В роботс запиши и всо!

Насколько я знаю, запрещенные в роботсе страницы из индекса не удалятся, а так и будут там висеть

metasearch
На сайте с 19.08.2009
Offline
96
#9

Составь правило для роботс, запрещающее индексацию всех "не чистых" URL'ов. Что-то типа

Disallow: /index.php?

или как там в джумле они строятся...

ps

Недавно на друпал-сайте закрыл все категории (теги) от индексации. И ниче так, нормально. Избавился от дублей.

metasearch добавил 17.05.2010 в 21:00

7aPu6aJIbDu:
Насколько я знаю, запрещенные в роботсе страницы из индекса не удалятся, а так и будут там висеть

Не будут...

Косультирую по CMS Drupal
manic
На сайте с 08.12.2008
Offline
88
#10

пропишите в роботсе ненужные странички, а потом воспользуйтесь http://webmaster.yandex.ru/delurl.xml

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий