Стоит ли закрывать от индексации "?"

VV
На сайте с 02.05.2012
Offline
34
1432

На сайте имеется аякс-фильтрация и пагинация, соответственно в индекс попадают страницы вида:


http://domen.ru/?page=2
http://domen.ru/?color=black

Стоит ли закрывать данные страницы от индексации? т.е прописывать в роботс правила "Disallow: *?"

Особенно интересует вопрос с пагинацией...

AD
На сайте с 11.12.2012
Offline
43
#1

vit-vlg, на мой взгляд пагинацию и фильтрацию ПС относят к дублям. К тому же - скорее всего у вас одинаковый title и все остальное (кроме page=2 и карточек товаров). Если это страницы форума- это уже другое дело. Там по идее более уникальный контент,чем карточки товаров.

А так- есть 2 способа избавления от таких дублей.

1. Тег rel=canonical на основную страницу при пагинации (проверьте, не отдает ли она еще и page=1)

2. Закрытие таких страниц в роботс.

Возможно еще использование директивы clean param для фильтрации. Этот способ неплох на мой взгляд с точки зрения статического веса. Но вот для Google (чисто мое субъективное мнение) этот вариант может и не избавить ваш сайт от дублей.

3. И в целом, встречала мнение, что некоторым ПС тяжело индексировать динамические страницы с "?". Для этого их обычно пытаются сделать их псевдостатичными хотя бы. Хотя встречала и такие урлы в ТОПах. Правда максимум по СЧ НК.

Точные позиции всегда - allpositions.ru (http://allpositions.ru/redirect/155868) Недорого продам домены http://calmhome.ru (http://calmhome.ru) ,http://cheap24.ru (http://cheap24.ru)
VV
На сайте с 02.05.2012
Offline
34
#2

Alen_Delon, проблема в том, что c одной стороны это дублирование контента, а с другой, если закрыть в роботс индексацию таких страниц через "Disallow: *?", то поисковик не увидит ссылки на вторую, третью и другие страницы в категориях, соответственно не перейдет на содержимое страниц. В карте сайта товары конечно будут, но естественных путей для поискового робота не будет.

N
На сайте с 18.05.2012
Offline
42
#3
vit-vlg:
Alen_Delon, проблема в том, что c одной стороны это дублирование контента, а с другой, если закрыть в роботс индексацию таких страниц через "Disallow: *?", то поисковик не увидит ссылки на вторую, третью и другие страницы в категориях, соответственно не перейдет на содержимое страниц. В карте сайта товары конечно будут, но естественных путей для поискового робота не будет.

Нет не надо закрывать. Лучшим решением будет rel="prev/next"

https://support.google.com/webmasters/answer/1663744?hl=ru

AD
На сайте с 11.12.2012
Offline
43
#4

а rel=prev rel=next понимает разве Яндекс?

Он только с canonical дружил вроде...

NCom
На сайте с 07.03.2008
Offline
291
#5

Нет, не нужно закрывать.

KS
На сайте с 18.02.2014
Offline
41
#6

Если на этих страницах дублируются мета теги и контент - закрывайте.

Или к каждому мета тегу в начале дописывайте номер страницы, а контент закрывайте в noindex

Idonat
На сайте с 24.06.2012
Offline
159
#7

Думаю, что закрывать стоит, так как ПС-ы не особо любят дубли страниц

На правах экспертного сообщества SearchEngines ©

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий