Robots.txt для предотвращения дублей ЧПУ, верно ли?

S
На сайте с 23.03.2009
Offline
29
383

Добрый день.На проекте Bitrix настроил ЧПУ. Встал вопрос, как закрыть от пауков дубли страниц. Возможен ли такой вариант:

Страница откликается по двум адресам:

site.com/example.php

и

site.com/example/

Будет ли грамотным прописать в robots.txt следующее:

Disallow: /example.php

По яндексу, после такой записи в роботс, адрес site.com/example/ доступен к индексации, а site.com/example.php соответственно нет.

Или можно закрыть от поисковиков дубли каким-то более грамотным способом?

П.С. Если все верно, то подойдет ли для динамических страниц (типа новости, статьи и прочее) следующее:

Disallow: /example2.php*

?

Заранее огромное спасибо!

WebAlt
На сайте с 02.12.2007
Offline
266
#1

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий