Дубли страниц с нетеипичными урл через роботс. Пмогите написать директиву

P
На сайте с 28.10.2010
Offline
1
330

Не знаю как но сайт саморастиражировал многие страницы. Вот например титул, есть и другие

Исходная

http://www.clubmp3.ru/default.aspx

Дубли

http://www.clubmp3.ru/(X(1)S(tpqszxfzfnaoj1fteiuytprl))/default.aspx

http://www.clubmp3.ru/(X(1)S(gptrtxm0dpmhv2uhrecjf0el))/default.aspx

....

http://yandex.ru/yandsearch?p=4&text=site%3Aclubmp3.ru+default.aspx&clid=46510&lr=213

Яндекс решил все это проиндексировать ) Гугл такие ссылки не фиксит.

Подскажите как через правила роботс склеить растиражированные страницы с оригинальными .aspx

читал есть директива Clean-param, составить маску для исключения буквенного мусора из урла не могу.

K
На сайте с 31.01.2001
Offline
737
#1

Clean-param тут не покатит, нет никаких параметров.

Что у вас в скобках после буквы S, не вполне понятно.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
FlyAway
На сайте с 01.06.2005
Offline
439
#2
Kost:
Что у вас в скобках после буквы S, не вполне понятно.

Я так понимаю, что это сессия.

Может стоит поставить модуль Rewrite Module для asp?

Сердюченко Андрей (http://www.serdyuchenko.ru/) Масонская ложа — SЕ-Team.ru (http://goo.gl/YIjV6h) :)
P
На сайте с 28.10.2010
Offline
1
#3

Сам не понимаю что за абракадабра и с чего дописывается к ПРЯМЫМ ссылкам.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий