Закрытие страниц паджинации в блогах и интернет магазинах

Ripro
На сайте с 04.11.2006
Offline
144
#11
blackcarrot:
Расскажите это разработчикам популярных CMS

Готовые CMS, даже популярные, никогда не выделялись хорошей оптимизацией под поиск. Всегда приходится вносить изменения, которые по вашему мнению необходимы для успешного продвижения. Потому к любой CMS лучше применять толкового программера и делать из сайта конфетку :)

D
На сайте с 17.04.2013
Offline
109
#12
storea:
Добрый день, посоветуйте имеет ли смысл закрывать данные страницы robots.txt для гугла?

Смотря какие страницы. Если это рубрики, архивы, метки, то да. Если это страницы с объемными и хорошими комментариями к статьям, т.е. количество нового контента больше чем дублируемая часть, то нет.

B
На сайте с 08.02.2012
Offline
217
#13
Готовые CMS, даже популярные, никогда не выделялись хорошей оптимизацией под поиск. Всегда приходится вносить изменения, которые по вашему мнению необходимы для успешного продвижения. Потому к любой CMS лучше применять толкового программера и делать из сайта конфетку

Ну я как бы о том же, только клиенты этого не знают и берут то что им впарили из коробки вроде битрикса или magento. Н у и потом на форуме такие топики создают...

Для клиентов толковые программисты - это доп затраты=) Как говорится, скупой платит дважды...

K
На сайте с 21.11.2007
Offline
80
kRt
#14

Страницы паджинации надо обязательно закрывать!

P.S.: а паджинация - это что? 🤪

Ripro
На сайте с 04.11.2006
Offline
144
#15
blackcarrot:
Ну я как бы о том же, только клиенты этого не знают и берут то что им впарили из коробки вроде битрикса или magento. Н у и потом на форуме такие топики создают...

Для клиентов толковые программисты - это доп затраты=) Как говорится, скупой платит дважды...

Речь о том как сделать максимально эффективно, а не о жадности клиентов :)

B
На сайте с 13.02.2008
Offline
262
#16

Из всех вариантов решения проблемы пагинации, я остановился на следующем:

Во всех пагинированных страницах (у которых в урле ?page=...) в метатеге robots прописал "noindex, follow". Таким образом я запрещаю помещать пагинированные страницы в индекс, но разрешаю пауку проходить по ссылкам на них. В итоге и дублей нет, и на индексации товаров не сказывается.

Выбрал этот вариант как самый простой. У меня Друпал и всё это дело делается автоматом в хуке.

Ripro
На сайте с 04.11.2006
Offline
144
#17
borisd:
Из всех вариантов решения проблемы пагинации, я остановился на следующем:

Во всех пагинированных страницах (у которых в урле ?page=...) в метатеге robots прописал "noindex, follow". Таким образом я запрещаю помещать пагинированные страницы в индекс, но разрешаю пауку проходить по ссылкам на них. В итоге и дублей нет, и на индексации товаров не сказывается.

Выбрал этот вариант как самый простой. У меня Друпал и всё это дело делается автоматом в хуке.

Самый просто вариант не всегда самый правильный )

Помимо того, noindex - не запрет, а просьба. Часто страницы все равно оказываются в выдаче )

богоносец
На сайте с 30.01.2007
Offline
768
#18
blackcarrot:
Расскажите это разработчикам популярных CMS

Они, как и ТС, тоже ищут не там, где потеряли, а там, где светлее.

storea:
На данный момент мы вносим улучшения в один проект. Нам посоветовали закрыть паджинацию и я тоже не уверен, что это правильное решение.

Подскажите если закрыть данные страницы в гугле, то получаеться что также это выкинет с индекса страницы продукта и посты со второй странице и дальше?

Также интересует помогает ли закрытие нерелевантных страниц в роботс.ткст увеличению веса страниц которые остаються в индексе?

Привет верующим в советы.

Ваши затруднения описываются вопросом: Если монтировкой по голове, то шнурки развяжутся?

Закрывать или не закрывать — зависит не от того, это страницы пагинации или какие-то ещё. Если на страницах есть дублирование, то их лучше закрыть (позаботившись об индексации в сайтмапе). Иначе... очень умный Гугл умеет выкидывать из индекса продвигаемую https://www.google.com/search?q=site%3Awww.yandex.ru%2Fm&filter=0 оставив мусор. Т.е. лучше самому думать о том... как поведёт себя бот, а не ждать от него неожиданностей.

Лучше исходить из того — какие советчики пациента видели?

D
На сайте с 17.04.2013
Offline
109
#19
Ripro:
Помимо того, noindex - не запрет, а просьба. Часто страницы все равно оказываются в выдаче )

Роботы подчиняются тегу noindex в теле html. Об этом прописано во всех доках яши и гугла. У меня ни разу закрытые подобным образом урлы не оказывались в индексе. Разве что mail.ru пофиг на эти теги и робот.тхт.

Ripro
На сайте с 04.11.2006
Offline
144
#20
Dreamfall:
Роботы подчиняются тегу noindex в теле html. Об этом прописано во всех доках яши и гугла. У меня ни разу закрытые подобным образом урлы не оказывались в индексе. Разве что mail.ru пофиг на эти теги и робот.тхт.

"У меня ни разу" - не значит, что такого нет вообще, значит вам повезло. На моих сайтах и анализируемых мной, замечала подобное. Это не значит, что noindex вообще не работает, просто он не является запретом. Это скорее просьба к боту "пожалуйста, не тяни ты это в индекс, не хочу я его там видеть" :) А как бот решит - кто знает ))

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий