Запрет страниц с переменными в url в robots.txt

D
На сайте с 21.10.2014
Offline
0
200

Доброго времени суток!

Есть следующая проблема: cms нагенерила кучу дублей страниц благодаря тому, что в фильтре выбора характеристик подставляет переменные цены, района, города и т.п.

Выглядит это так:

site.com/city1/courses

site.com/city1/courses/prices:all

site.com/city1/courses/prices:all&types:all

site.com/city1/courses/prices:all&types:all&districts:all

Адреса продуктов имеют вид:

site.com/city1/courses/course-name

site.com/city1/courses/course-name/charactiristics

Решит ли проблему следующий вариант записи в robots.txt:

User-agent: Google

Disallow: /city1/courses/prices*

Либо может попросту добавить rel="canonical" на всех страницах с типами?

И еще вопрос, в дальнейшем руководство хочет сделать статические урл формата:

site.com/курсы-по-шитью/ололоевский-район/от-700-руб

site.com/курсы-по-шитью/ололоевский-район/от-1400-руб

...и так по каждому району и ценовой категории. Полагаю, что надо будет сделать скрипт генерации мета тегов по определенному шаблону. Что-то подобное нужно и для генерации описания чтобы не было частичных дублей из-за одинакового текста на страницах. Вопрос в следующем - имеет ли это смысл? С одной стороны - это будет куча страниц заточенных под низкочастотники, с другой - в serp для пользователя будет так себе смотреться идущие подряд 5 результатов по его району, различающихся разве что ценой.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий