Закрытие страниц паджинации в блогах и интернет магазинах

D
На сайте с 17.04.2013
Offline
109
#41

Ну я же написал - можно и так. Кстати в href="magazin.ru/telefony" лучше бы указывать полный урл c http.

SM
На сайте с 07.06.2012
Offline
30
#42

Т.к. в инете видел разные варианты, то эксперимента ради, на одном их моих проектов для разных типов продуктов сделано так

1. Первая страница категории с текстом, последующие - без

2. Везде (для обоих типов) стоит next|prev

3. В одном типе noindex запрещены все 2+ страницы и стоит canonical на стартовую категорию

4. В другом типе - разрешена индексация и нет каноникала

Продуктов 10К+, т.е. страниц в пагаинации 80+

По результатам в гугле могу сказать, что разницы нет. Гугл индексирует продукты в каталоге что там что там, трафик есть и там и там. Мое мнение, чтоб облегчить гуглу жизнь, лучше закрывать noindex сразу, при этом не запрещать follow.

Что касается robots.txt - забудьте про него. Гугл все равно ходит по сайту, по закрытым страницам.

R
На сайте с 02.06.2013
Offline
41
#43

Спасибо за консультацию, закрою, только через ссылку в php , как Вы показали не получится на отдельные страницы у меня...

---------- Добавлено 16.01.2014 в 22:00 ----------

В общем, начиная углубляться, немного запутался теперь....

Может подскажите тогда по конкретному случаю:

В инструментах гугла, в Оптимизация HTML, хочу чтоб не было "Повторяющиеся заголовки (теги title)"

повторяются именно в сортировке и в "показывать по....страниц"

Возможности добавить метатег с nofollow для robots для отдельных страниц вроде как нет,

могу в ссылку сортировки добавить nofollow и noindex ... либо закрыть их в robots

как лучше? в частности для решения проблемы "Повторяющиеся заголовки (теги title)"😕

SM
На сайте с 07.06.2012
Offline
30
#44
Reccord:
Спасибо за консультацию, закрою, только через ссылку в php , как Вы показали не получится на отдельные страницы у меня...

---------- Добавлено 16.01.2014 в 22:00 ----------

В общем, начиная углубляться, немного запутался теперь....
Может подскажите тогда по конкретному случаю:
В инструментах гугла, в Оптимизация HTML, хочу чтоб не было "Повторяющиеся заголовки (теги title)"
повторяются именно в сортировке и в "показывать по....страниц"

Возможности добавить метатег с nofollow для robots для отдельных страниц вроде как нет,
могу в ссылку сортировки добавить nofollow и noindex ... либо закрыть их в robots
как лучше? в частности для решения проблемы "Повторяющиеся заголовки (теги title)"😕

Закрытие в робот не закроет полностью страницы от гугла (есть прувы по этому поводу, что он все равно ходит). Кроме того, и самое главное - не удалит дубли из гугла, гугл их уже сожрал и засунул себе в память.

Можно конечно закрыть в роботс и потом в ВМТ посидеть 2-3 дня и руками поубивать дубли. Вариант для мазохистов :)

Или менять движок или крутить этот, но убрать дубли в тайтлах и тегах нужно. Или делать их уникальными (например, для всех последующих писать что-то типа Страница 1/123, Имя_категории), или закрывать noindex.

Mik Foxi
На сайте с 02.03.2011
Offline
1176
#45
andrey-z:
<link rel="canonical" href="magazin.ru/telefony"/> и все ок.

это однозначно лучшее решение.

Антибот, антиспам, веб файрвол, защита от накрутки поведенческих: https://antibot.cloud/ Форум на замену серчу: https://foxi.biz/
SM
На сайте с 07.06.2012
Offline
30
#46
foxi:
это однозначно лучшее решение.

Кстати, да. Прописать можно на всех страницах пагинации и не мутить с движком.

E
На сайте с 21.09.2009
Offline
283
#47
foxi:
это однозначно лучшее решение.

я бы не сказал, что это так. Алгоритм склейки иногда офигивает от количества материала. И не факт, что каноникал учтется.

serdget
На сайте с 24.01.2012
Offline
84
#48
Sergio Maricone:
Закрытие в робот не закроет полностью страницы от гугла (есть прувы по этому поводу, что он все равно ходит). Кроме того, и самое главное - не удалит дубли из гугла, гугл их уже сожрал и засунул себе в память.

Можно конечно закрыть в роботс и потом в ВМТ посидеть 2-3 дня и руками поубивать дубли. Вариант для мазохистов :)

Или менять движок или крутить этот, но убрать дубли в тайтлах и тегах нужно. Или делать их уникальными (например, для всех последующих писать что-то типа Страница 1/123, Имя_категории), или закрывать noindex.

noindex, только в Яше работает! Это элементарно Ватсон!:)

Не путайте noindex с nofollow, они работают по разному!😡

Смешные запросы (http://intersnet.ru/publ/internet/smeshnye_zaprosy_v_yandex_i_google/41-1-0-127) в поисковых системах.
E
На сайте с 21.09.2009
Offline
283
#49
serdget:
noindex, только в Яше работает! Это элементарно Ватсон!

он имел ввиду метатег, а не просто тег.

SM
На сайте с 07.06.2012
Offline
30
#50
serdget:
noindex, только в Яше работает! Это элементарно Ватсон!:)
Не путайте noindex с nofollow, они работают по разному!😡

Ни разу не путаю, Холмс :)

<meta name="robots" content="index, follow">

noindex - заставляет гугл выбрасывать из индекса или не индексировать страницу

nofollow - не ходить по ссылкам с данной страницы (хотя, говорят, что все равно ходит, гад)...

яша? не, не слышал :) надцать лет под бурженет работаю

---------- Добавлено 16.01.2014 в 21:12 ----------

easywind:
он имел ввиду метатег, а не просто тег.

Спасибо, коллега :)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий