Проблема: закрыть урл в robots.txt на DLE

andreyma
На сайте с 20.01.2010
Offline
51
620

Как и у большинства пользователей ДЛЕ у меня при индексации сайта возникли проблемы с появлением многочисленных дублей страниц.

Сейчас в индексе висят страницы, ведущие на одну и ту же исходную, но разных форматов. Например:

урл/sms-pozdravleniya/pozdravleniya-lyubimomu-parnyu-muzhu/

урл/sms-pozdravleniya/pozdravleniya-lyubimomu-parnyu-muzhu/96-sms-pozdravleniya-lyubimomu-1.html

Из интерфейса сайта доступна страница именно без html. Как известно, дубли - это зло. И я хотел бы их закрыть для индексации. Решил для себя, что буду закрывать страницы именно с html форматом.

Теперь вопрос:

Как правильно прописать в роботс.тхт???

Disallow: /sms-pozdravleniya/pozdravleniya-lyubimomu-parnyu-muzhu/96-sms-pozdravleniya-lyubimomu-1.html Весь вариант включая и категории. Здесь я опасаюсь, что могу запретить данным действием индексацию ВСЕЙ категории /sms-pozdravleniya/ Так ли это????

или

Disallow: /96-sms-pozdravleniya-lyubimomu-1.html Лишь окончание, поймет ли робот лишь по окончанию, что я хочу запретить именно данную страницу к индексу ????

Подскажите, как делать????

Единственный в мире блог о женском футболе (http://nicblog.ru) выбираем лучшие смс (http://999sms.ru) на моем кормильце
K
На сайте с 19.06.2007
Offline
67
#1

Лучше будет сделать другие адреса для всех страниц. Со старых же страниц поставить 301 редирект на новые адреса страниц.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий