Дубликаты страниц, методы решения проблемы, canonical

12
New Member
На сайте с 21.12.2008
Offline
211
1996

Хотелось бы узнать, у людей которые успешно использовали и используют данный тег для устранения дубликатов. У меня к сожалению, опыта с этим тегом не очень много.

Ситуация такова, есть интернет магазин, у него пагинатор настроен не по странично, а автоматическое добавление при прокрутке(как в контакте например).

Тем не менее, запросы сервер все равно формирует и гугл их жрет, и добавляет в индекс.

В итоге получается вот такая беда в выдаче:

http://site.ru/catalog/televizory/

http://site.ru/catalog/televizory/?Goods_page=1

http://site.ru/catalog/televizory/?Goods_page=2

http://site.ru/catalog/televizory/?Goods_page=3

Все это загоняется в индекс. А так же если отдельно заходить на эти URL, то выводился текст с основной категории. Это сразу же я пофиксил.

Как лучше всего дальше поступить?

1) Закрыть в robots.txt по шаблону Disallow: /*?Goods_page=*, и удалить страницы вручную из индекса в WMT. Но если страниц сотни?

2) Закрыть в robots.txt по шаблону Disallow: /*?Goods_page=*, и добавить в код страниц <meta name="robots" content="noindex,nofollow" />

3) Ничего не удалять или трогать. А лишь добавить в код дубликатов страниц мета-тег каконикал

в код этих страниц

http://site.ru/catalog/televizory/?Goods_page=1

http://site.ru/catalog/televizory/?Goods_page=2

http://site.ru/catalog/televizory/?Goods_page=3

добавить

<link rel='canonical' href='http://site.ru/catalog/televizory/' />

4) Возможно все эти способы объеденить и использовать одновременно?

Закрыть в robots.txt

Добавить мета-тег robots = nofollow/noindex

Прописать каноникал для дубликатов ссылающихся на основную категорию

Как бы вы поступили? Возможно есть вариант получше?

Раскрутка сайтов (https://seomasters.com.ua/)
R0
На сайте с 19.05.2012
Offline
53
#1

в роботсе обычно ничего не пишут, делают canonical и ставят мета-тег robots и указывают noindex, nofollow. Видел конструкции где стоит canonical и прописано index, follow.

New Member
На сайте с 21.12.2008
Offline
211
#2
r3b0t:
в роботсе обычно ничего не пишут, делают canonical и ставят мета-тег robots и указывают noindex, nofollow. Видел конструкции где стоит canonical и прописано index, follow.

Смотрю в известных интернет-магазинах, везде все по разному.

Взять тот же гугл:

https://play.google.com/store/apps/collection/featured стоит каноникал сам на себя, ну это ладно

переходим на вторую страницу

https://play.google.com/store/apps/collection/featured?start=24&num=24

вот тут по идее должен стоят каноникал на https://play.google.com/store/apps/collection/featured

но нет, опять же сам на себя

Gennadi
На сайте с 18.12.2012
Offline
138
#3

Я например поступаю по второму варианту, а если много страниц можно либо забить и ждать пока сами выпадут либо поручить это вебмастеру, есть сейчас сайт в реале 3к страниц, а в индексе гугла 74к так я так и сделал.

А с новомодными мета тегами они пусть сначала сами разберутся, а мы посмотрим.

New Member
На сайте с 21.12.2008
Offline
211
#4

В общем сейчас решил сделать 301 редирект с таких страниц на основную категорию, программист умничка при этом не ломается пагинатор.

tuz
На сайте с 31.01.2009
Offline
58
tuz
#5

мета тег роботс ноиндекс, фоллоу

+ каноникал

Tolum
На сайте с 18.01.2006
Offline
75
#6

запретил в роботсе + убрал с карты сайта = гугл аккуратненько повыкидывал дубли из индекса

Что-то вроде женского журнала (http://nbtrends.com/)
New Member
На сайте с 21.12.2008
Offline
211
#7

Считаете ли вы вот это

нахождением в индексе или нет?

Tolum
На сайте с 18.01.2006
Offline
75
#8

да, посчитал, возможно конечно ошибаюсь. С гугл вебмастера страницы ушли. Но в выдаче именно так.

A
На сайте с 04.06.2012
Offline
22
#9
New Member:
Хотелось бы узнать, у людей которые успешно использовали и используют данный тег для устранения дубликатов. У меня к сожалению, опыта с этим тегом не очень много.
Ситуация такова, есть интернет магазин, у него пагинатор настроен не по странично, а автоматическое добавление при прокрутке(как в контакте например).
Тем не менее, запросы сервер все равно формирует и гугл их жрет, и добавляет в индекс.
В итоге получается вот такая беда в выдаче:
http://site.ru/catalog/televizory/
http://site.ru/catalog/televizory/?Goods_page=1
http://site.ru/catalog/televizory/?Goods_page=2
http://site.ru/catalog/televizory/?Goods_page=3
Все это загоняется в индекс. А так же если отдельно заходить на эти URL, то выводился текст с основной категории. Это сразу же я пофиксил.
Как лучше всего дальше поступить?
1) Закрыть в robots.txt по шаблону Disallow: /*?Goods_page=*, и удалить страницы вручную из индекса в WMT. Но если страниц сотни?
2) Закрыть в robots.txt по шаблону Disallow: /*?Goods_page=*, и добавить в код страниц <meta name="robots" content="noindex,nofollow" />
3) Ничего не удалять или трогать. А лишь добавить в код дубликатов страниц мета-тег каконикал
в код этих страниц
http://site.ru/catalog/televizory/?Goods_page=1
http://site.ru/catalog/televizory/?Goods_page=2
http://site.ru/catalog/televizory/?Goods_page=3
добавить
<link rel='canonical' href='http://site.ru/catalog/televizory/' />
4) Возможно все эти способы объеденить и использовать одновременно?
Закрыть в robots.txt
Добавить мета-тег robots = nofollow/noindex
Прописать каноникал для дубликатов ссылающихся на основную категорию

Как бы вы поступили? Возможно есть вариант получше?

Если это действительно пагинация то - <meta name="robots" content="noindex,follow" />

S
На сайте с 05.02.2007
Offline
93
#10
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий