Как избавиться от дублей страниц

NewNuma
На сайте с 27.05.2010
Offline
67
2236

Здравствуйте. У меня есть сайт на CMS joomla 1.5. Еще около полугода назад решил установить модуль календаря на сайт, после установки через пару апдейтов Яндекса в индексе появились непонятные дубли страниц. Модуль сразу снял, думал что со временем эти дубли исчезнут с индекса. Дубли только тех страниц, которые были на сайте в момент установки календаря. У тех страниц, которые появились уже после удаления календаря дублей нет. Но уже полгода эти дубли стабильно держатся в индексе. Пытался удалить вручную через http://webmaster.yandex.ru/delurl.xml не получается, пишет: "Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex." Подскажите пожалуйста как избавиться от этих ненужных страниц. Вот пример:

Правильная страница:

сайт.ру/категория/название_статьи

Дубли страниц, которые нужно удалить:

сайт.ру/категория/66?sectionid=0&bsb_midx=0

сайт.ру/категория/71?sectionid=0&bsb_midx=-1

сайт.ру/категория/71?sectionid=0&bsb_midx=-3

сайт.ру/index.php?start=21&bsb_midx=-2

сайт.ру/component/content/article/60?sectionid=0&bsb_midx=-4

И таких дублей больше сотни... есть даже по несколько дублей на одну и ту же страницу. :(

oleg1979
На сайте с 23.07.2010
Offline
187
#1

NewNuma,

почитайте про robots.txt - в нем можно запретить индексацию таких страниц.

Консультирую по всем вопросам, связанным с запуском интернет-магазина
faedrus
На сайте с 30.10.2008
Offline
158
#2
NewNuma:
"Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex.

так действительно, запретите в роботсе, хотя это тоже не будет 100% гарантией

Ушел на завод
L
На сайте с 05.12.2010
Offline
8
#3

в гугле можно заказать удаление из индекса страниц, может и у яндекса подобный сервис есть

NewNuma
На сайте с 27.05.2010
Offline
67
#4
faedrus:
так действительно, запретите в роботсе, хотя это тоже не будет 100% гарантией

А как правильно в роботс прописать чтобы они удалились и больше не индексировались?

Mirotvoretz
На сайте с 03.07.2009
Offline
86
#5

Если CMS - Joomla, то статья по поводу борьбы с дублями есть на этом сайте, например.

SEO
NewNuma
На сайте с 27.05.2010
Offline
67
#6
Mirotvoretz:
Если CMS - Joomla, то статья по поводу борьбы с дублями есть на этом сайте, например.

К сожалению мой случай там не рассматривается. А у меня еще и почти в каждом дубле есть ID статьи... 😒

NewNuma добавил 03.01.2011 в 19:50

Подскажите кто-нибуть, что нужно прописать в роботс, чтобы не индексировались подобные страницы:

сайт.ру/категория/66?sectionid=0&bsb_midx=0

сайт.ру/категория/71?sectionid=0&bsb_midx=-1

сайт.ру/категория/71?sectionid=0&bsb_midx=-3

сайт.ру/index.php?start=21&bsb_midx=-2

сайт.ру/component/content/article/60?sectionid=0&bsb_midx=-4

sainty
На сайте с 12.10.2009
Offline
42
#7
NewNuma:

"Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex." Подскажите пожалуйста как избавиться от этих ненужных страниц. Вот пример:

Правильная страница:

сайт.ру/категория/название_статьи

Дубли страниц, которые нужно удалить:

сайт.ру/категория/66?sectionid=0&bsb_midx=0
сайт.ру/категория/71?sectionid=0&bsb_midx=-1
сайт.ру/категория/71?sectionid=0&bsb_midx=-3
сайт.ру/index.php?start=21&bsb_midx=-2
сайт.ру/component/content/article/60?sectionid=0&bsb_midx=-4

И таких дублей больше сотни... есть даже по несколько дублей на одну и ту же страницу. :(

Именно потому не удаляются страницы, что в вашем robots.txt нет на то указаний. Ни в Гугле, ни в Яндексе у меня не получилось заказать удаление страниц через панель вебмастера до тех пор, пока я не добавил в роботсе вручную для каждого дубля что-то вроде (для вашего случая):

Disallow: /категория/66?sectionid=0&bsb_midx=0

Disallow: /категория/71?sectionid=0&bsb_midx=-1

Disallow: /категория/71?sectionid=0&bsb_midx=-3

Disallow: /index.php?start=21&bsb_midx=-2

Disallow: /component/content/article/60?sectionid=0&bsb_midx=-4

у меня на Джумле пока что работало...

БЕСПЛАТНЫЙ пошаговый мини-курс (http://content-factory.ru/azbuka/) по продвижению контентом Написание текстов для солидных сайтов (http://content-factory.ru/)
NewNuma
На сайте с 27.05.2010
Offline
67
#8
sainty:
Именно потому не удаляются страницы, что в вашем robots.txt нет на то указаний. Ни в Гугле, ни в Яндексе у меня не получилось заказать удаление страниц через панель вебмастера до тех пор, пока я не добавил в роботсе вручную для каждого дубля что-то вроде (для вашего случая):


Disallow: /категория/66?sectionid=0&bsb_midx=0
Disallow: /категория/71?sectionid=0&bsb_midx=-1
Disallow: /категория/71?sectionid=0&bsb_midx=-3
Disallow: /index.php?start=21&bsb_midx=-2
Disallow: /component/content/article/60?sectionid=0&bsb_midx=-4

у меня на Джумле пока что работало...

Спасибо за совет... попробую добавить в роботс отдельно каждый дубль. Правда их более 150.. :o Только вот вопрос, а заблокируются именно эти страницы? А страницы вида: сайт.ру/категория/название_статьи останутся доступны, т.е. все что идет после категории? Просто я в роботс не очень разбираюсь.

sainty
На сайте с 12.10.2009
Offline
42
#9

На здоровье!

Да, должны закрыться исключительно те страницы, которые будут прописаны в роботсе.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий