Проблема как закрыть ряд страниц в Robots.txt

Seredovich
На сайте с 09.12.2009
Offline
148
366

Собственно возникла проблема.

На сайте каталог по городам с категориями. У категорий есть постраничная навигация он же пагинатор. Получается примерно так:

домен.ру/samara/avtoservis

домен.ру/samara/avtoservis/2

домен.ру/samara/avtoservis/3

домен.ру/ufa/avtoservis

домен.ру/ufa/avtoservis/2

домен.ру/ufa/avtoservis/3

домен.ру/agapovka/avtoservis

домен.ру/agapovka/avtoservis/2

домен.ру/agapovka/avtoservis/3

И т.д. по другим разделам. Гео очень большое, ручками ставить по маске на каждый город на каждую категорию в роботс команду это врыв мозга. Или существует какие то возможности? Просто яндекс сьел такие страницы сайта и первую страницу которая оптимизирована под продвижение пессимизирует так как куча страниц с одинаковым заголовком по сути

Карамба.
N
На сайте с 21.04.2014
Offline
68
#1
Seredovich:
Собственно возникла проблема.


домен.ру/samara/avtoservis
домен.ру/samara/avtoservis/2
домен.ру/samara/avtoservis/3


домен.ру/ufa/avtoservis
домен.ру/ufa/avtoservis/2
домен.ру/ufa/avtoservis/3


домен.ру/agapovka/avtoservis
домен.ру/agapovka/avtoservis/2
домен.ру/agapovka/avtoservis/3

Каноническими ссылками проблему не пробовал решить

A
На сайте с 22.11.2012
Offline
80
#2

Disallow: */2

Disallow: */3

Не?

secondary
На сайте с 20.12.2012
Offline
142
#3

Выберите основной урл, который будет отображать нужный вид страницы. А остальные просто закройте по маске.

Seo аудит сайтов. Консультации. Качественная внутренняя оптимизация. (/ru/forum/803695) Полная подготовка проектов с нуля! Оптимизация готовых сайтов.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий