Помогите с Robots.txt + закрыть поиск на сайте

C
На сайте с 07.09.2007
Offline
123
727

Добрый день!

При самостоятельной разработке сайта справочника не учли один косяк, из-за которого сайт теперь попал под фильтры.

Сайт сделан следующим образом:

site.com/ru/ - все компании России

site.com/ru/moscow/ - компании Москвы

Косяк в том, что на site.com/ru/ - все организации и site.com/ru/moscow/ получается их дублирует, что является поисковым спамом. Мне надо полностью закрыть site.com/ru/ от индексации, при этом, что-бы все вложенные страницы (как /ru/moscow/) индексировались. Как это правильно прописать в Роботсе?

И еще вопрос - гугл жмет на кнопки сортировки и переиндексирует сайт, получается куча ссылок вида: ru/?sort=price&page=25, которые содержат одну и ту же инфу, как запретить к индексации все URL где есть вхождения "sort="? Или проще и правильней в ноуиндекс и нофолоу поставить ссылки для сортировки?

kimberlit
На сайте с 13.03.2007
Offline
370
#1

Disallow: /ru/$

Disallow: /*sort=

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий