как правильно запретить страницы к индексации

QweSt
На сайте с 25.02.2010
Offline
63
382

Есть сайт у которого все страницы дублируются и из-за этого в выдаче релевантность страниц меняется с каждым апом.

Половина страниц на сайте с говорящими урлами а вторая с урлами типа http://site.ru/?id=4 где "4" идентификационный номер страницы.

Как закрыть все подобные страницы в robots.txt ?

Сейчас прописано "Disallow: /?id"

Заранее спасибо за ответы.

VoV@
На сайте с 22.09.2007
Offline
196
#1

Disallow: /?id

PS посмотрите в панели вебмастера, должно работать

⭐ Разработка Андроид-приложений (Xamarin C#). ⭐ Разработка ASP.NET (WebForms, MVC, WebAPI, Core). ⭐ Цой жив!
QweSt
На сайте с 25.02.2010
Offline
63
#2
VoV@:
Disallow: /?id

PS посмотрите в панели вебмастера, должно работать

Веб мастер все это видит ... но уже месяц эти страницы не закрывает.

Вот и подумал что не корректно прописал Disallow

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий