Как насильно выкинуть из индекса несколько сотен страниц?

12 3
TO
На сайте с 21.09.2007
Offline
170
3659

На портале была допущена ошибка в программной реализации, и возникла куча дублей страниц каталога. Такого типа:

К странице

www.site.ru/catalog/tovar

дубли

www.site.ru/catalog/tovar?r=2&k=5

www.site.ru/catalog/tovar?r=6&k=13

...

По дублям отдается тот же контент, что и по основному урлу.

Мы спохватились и сделали так, чтобы в дубли подставлялся мета-тег, запрещающий индексацию.

Можно ли как-нибудь ускорить вылет этих страниц из индекса? Они же там годами висеть могут.

AXR_GREEN
На сайте с 22.11.2006
Offline
97
#1

отдавайте 404 на дубли, и в течении 4 апов возможно они вылетят.

АК
На сайте с 05.08.2006
Offline
76
#2

А если редирект поставить со страниц www.site.ru/catalog/tovar?r=6&k=13 на www.site.ru/catalog/tovar ? Не быстрее уйдут из индекса? Даже, если не быстрее, возможно так лучше будет для пользователя, особенно, если они в закладки добавляют ваши страницы.

TO
На сайте с 21.09.2007
Offline
170
#3

AXR_GREEN, хорошая идея, спасибо. Переделаем, все равно этих страниц быть не должно.

Алексей Катаев, нельзя редирект. Дело в том, что страницы с такими параметрами существуют, если вызывать их вот так

www.site.ru/catalog/tovar?r=6&k=13#tabview=tab3

Сейчас вообще нужно глобально этот механизм переделать, иначе индекс так и будет загаживаться дублями.

A7
На сайте с 02.07.2008
Offline
47
#4

Попробуйте в robots.txt Clean-param

Clean-param: r&k /catalog/tovar

R
На сайте с 23.09.2008
Offline
15
#5
t_o_x_a:
На портале была допущена ошибка в программной реализации, и возникла куча дублей страниц каталога. Такого типа:

К странице
www.site.ru/catalog/tovar
дубли
www.site.ru/catalog/tovar?r=2&k=5
www.site.ru/catalog/tovar?r=6&k=13
...

По дублям отдается тот же контент, что и по основному урлу.

А в robots закрыть религия не позволяет? :) Моментально вылетят.

TO
На сайте с 21.09.2007
Offline
170
#6

Axiom777, интересно, не знал про такую директиву.

Rurouni, несколько тысяч страниц о_О

S
На сайте с 28.10.2005
Offline
296
#7
t_o_x_a:

Rurouni, несколько тысяч страниц о_О

Хоть миллион


User-agent: Yandex
Disallow: /*?
Exolon
На сайте с 28.09.2010
Offline
101
#8
t_o_x_a:
Можно ли как-нибудь ускорить вылет этих страниц из индекса? Они же там годами висеть могут.

Если так:

User-agent: Yandex

Allow: /catalog/tovar

Disallow: /catalog/tovar?*

При схожей проблеме с дублями, именно ускорить процесс вылета помог robots.txt

Страницы с редиректами висели несколько месяцев.

V
На сайте с 16.05.2010
Offline
66
#9

У меня похожая проблема, я с гуглем только совладать не могу. Вот это попало в индекс то, что не должно было:

/tovari/smd-svetodiodi.html?limit=15&start=10

/tovari/smd-svetodiodi.html?limit=25&start=10

/tovari/smd-svetodiodi.html?limit=30&start=5

/tovari/smd-svetodiodi.html?limit=50&start=5

Мне нужны только страницы вида

/tovari/smd-svetodiodi.html?limit=25&start=25

/tovari/smd-svetodiodi.html?limit=25&start=50 и т.д. То есть с шагом в 25 товаров. Никак не могу найти ответ. Буду признателен за помощь!

TO
На сайте с 21.09.2007
Offline
170
#10
semenov:
Хоть миллион

User-agent: Yandex
Disallow: /*?

Я запутался в этом бешеном выражении.

Мы закрываем все страницы, у которых передается параметр (= присутствует знак вопроса в урле)?

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий