Закрытие страниц от индекса в файле robots.txt

С8
На сайте с 23.08.2012
Offline
108
1258

Здравствуйте. Закрыла в файле robots.txt страницы постраничной навигации: Disallow: /*?start=* , так как выводятся только краткие описания статей со ссылками. Теперь вот возникли сомнения, будут ли поисковые роботы переходить по ссылкам на страницах постраничной навигации и индексировать сами статьи? Может быть, запрещать подобные файлы нет смысла? Но тогда ведь могут появиться частичные дубли страниц?

_
На сайте с 08.10.2011
Offline
36
#1

У меня страницы пагинации открыты, просто во всех мета дописываю номер страницы...

P
На сайте с 02.07.2007
Offline
91
#2

нормально все будет, для полного спокойствия добавьте карту сайта...

С8
На сайте с 23.08.2012
Offline
108
#3

Спасибо! Sitemap есть.

seodrum
На сайте с 18.08.2011
Offline
34
#4

_Stasya_ правильно говорит. Поддерживаю. Добавлю три копейки:

Если есть описание категории - проследите, чтобы не дублировалось на всех страницах пагинации это описание.

Если страница категории с выводом превью статей заточена под, например, ключ

"Аренда автокранов Liebherr в Москве", а статьи этой категории посвящены моделям автокранов Liebherr, то в остальных страницах пагинации, то есть кроме первой, организуйте Тайтл не так:

"Аренда автокранов Liebherr в Москве", а так:

"Liebherr - Страница 2"

Чтобы сами страницы пагинации категорий между собой не конкурировали и не вводили поиск в заблуждение. (Это пример, смысл ясен)

Закрывать в Роботс - не надо. Я так делал по неопытности на одном женском статейнике: страницы начали вываливаться.

Всего хорошего.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий