Правильно ли написан robots.txt для Yandex

seolink74
На сайте с 02.06.2006
Offline
396
310

Есть сайт на котором присутствуют дубли страниц

Есть желание закрыть от индексации дубли. Возможно это поможет ускорению индексации нужной страницы

Вопрос: правильно ли написан robots.txt для закрытия страниц с дублирующим контентом.(На даный момент в индексе www.урл.ru/folders/3317

User-agent: Yandex

Disallow: /folders/3317/

Disallow: /articles/41445/material/

Host: www.урл.ru

Конечно проще удалить дубли страниц но это не в моей компетенции.

Продвижение в ТОП3 Яндекс с оплатой по факту(писать в личку/Москва)
kimberlit
На сайте с 13.03.2007
Offline
370
#1

Ну если в папке /articles/41445/material/ лежит дублирующий контент, то правильно ...

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий