Закрывать ли категории джумлы в роботс?

N4
На сайте с 19.09.2008
Offline
277
872

Когда-то давно когда делал сайты слышал что лучше закрывать категории, типа дублируются заголовки и описание.

но вот на днях полчил рекомендацию от адсенс, что лучше раскрыть:

Роботу AdSense не удалось просканировать вашу страницу. Иногда в таких случаях система показывает нерелевантные объявления, что приводит к уменьшению CTR. Но чаще всего на странице вообще не отображается никакая реклама, что влечет за собой понижение дохода и заполняемости блоков. Чтобы решить эту проблему и повысить эффективность AdSense, используйте ссылки в разделе "Инструкции по устранению неполадок".

это понятно.. но не станет ли от этого хуже?

wildbeez
На сайте с 13.06.2012
Offline
68
#1

добавьте в роботс

User-agent: Mediapartners-Google

Disallow:

и перестанет ругаться☝

а что касается дублей.. так индексацию пагинации запретить, а сами страницы разделов привести в порядок: оптимизировать, уникализировать тайтл и дескрипшен, уникальные анонсы к статьям

затем продвигать:)

Ripro
На сайте с 04.11.2006
Offline
144
#2

Категории, как и пагинацию нельзя запрещать индексировать. Нужно добавить на постраничную навигацию код rel=«next|prev».

Подробно: http://habrahabr.ru/post/128746/

На категории добавить описания - 1-2 тыс симв.

wildbeez
На сайте с 13.06.2012
Offline
68
#3
Ripro:
пагинацию нельзя запрещать индексировать

нельзя или не рекомендовано? то есть я всегда запрещаю, а может нельзя?:)

заранее благодарю за ответ

Ripro
На сайте с 04.11.2006
Offline
144
#4
wildbeez:
нельзя или не рекомендовано? то есть я всегда запрещаю, а может нельзя?:)
заранее благодарю за ответ

Зачем ее закрывать? Это не дубли, это часть сайта. Поисковики рекомендуют разбивать длинные страницы на несколько страниц, т.е. если есть пагинация - вы сделали все верно, да и ботам проще бродить по сайту, если половина не закрыта от индексации. Особенно если у вас много-много новостей в каждой категории, а перелинковка неудачная.

Учитывайте так же, что поисковикам не нравится, когда многое на сайте закрыто от индексации - они хотят видеть все, что вы показываете людям.

wildbeez
На сайте с 13.06.2012
Offline
68
#5
Ripro:
поисковикам не нравится, когда многое на сайте закрыто от индексации/QUOTE]
индексацию пагинации я запрещаю, чтобы не дублировать мета теги разделов на страницах пагинации. также на страницах пагинации всех комментариев пользователей и прочие рейтинги статей, последние темы на форуме. это и метатеги дублирует, и сам контент, ведь, например, комменты .. они и под статьей и в списке последних комментов. так зачем дважды давать поисковику один и тот же контент да еще и с неуникальными тайтл и мета тегами?

безусловно, можно вымучать каноникалы, спрограммировать чтобы на второй, третьей, N странице в тайтл и дексрипшен дописывалось "страница - N" и рел ="след", рел="предыд" намутить.

Но не проще ли на страницах разделов вывести больше статей, сделать самогененрирующуюся карту сайта, чтобы роботы все видели что нужноиндексировать, а пагинацию запретить. в Гугле вебмастере 0 ошибок оптимизации html у меня на сайтах, то есть гугл любит когда дублей нет.


Хотел сказать, что не привели Вы агрументов в пользу пагинации...
Ripro
На сайте с 04.11.2006
Offline
144
#6
wildbeez:

так зачем дважды давать поисковику один и тот же контент да еще и с неуникальными тайтл и мета тегами?

безусловно, можно вымучать каноникалы, спрограммировать чтобы на второй, третьей, N странице в тайтл и дексрипшен дописывалось "страница - N" и рел ="след", рел="предыд" намутить.

Но не проще ли на страницах разделов вывести больше статей, сделать самогененрирующуюся карту сайта, чтобы роботы все видели что нужноиндексировать, а пагинацию запретить. в Гугле вебмастере 0 ошибок оптимизации html у меня на сайтах, то есть гугл любит когда дублей нет.


Хотел сказать, что не привели Вы агрументов в пользу пагинации...

Если вы прописываете: "спрограммировать чтобы на второй, третьей, N странице в тайтл и дексрипшен дописывалось "страница - N" и рел ="след", рел="предыд" намутить." - то страницы не будут дублями и будет 0 ошибок оптимизации.

А "вымучать каноникалы" на пагинации не нужно.

Я вам говорю свое личное мнение, основанное на многолетней практике. Аргументы ищите, пожалуйста, самостоятельно :)

B
На сайте с 13.02.2008
Offline
262
#7

Я бы просто прописал на пагинированных страницах (кроме первой) метатег "noindex, follow". Это скажет роботам не помещать эту страницу в индекс, но проходить по ссылкам на ней.

wildbeez
На сайте с 13.06.2012
Offline
68
#8
borisd:
Я бы просто прописал на пагинированных страницах (кроме первой) метатег "noindex, follow". Это скажет роботам не помещать эту страницу в индекс, но проходить по ссылкам на ней.

комильфо:)

а можете хоть примерно начертать как это буит реализовано? проверку нужно делать на несуществующие страницы пагинации?

B
На сайте с 13.02.2008
Offline
262
#9

wildbeez, как на джумле, не знаю. Я на друпале делал через хук: у страниц, в урле которых имеется параметр page=n, у меня в хуке добавляется метатег <meta name="robots" content="noindex, follow" />.

Я выбирал из нескольких вариантов решения этой проблемы и в итоге остановился на вышеуказанном, как самом простом и универсальном (для гугла и яндекса) решении.

wildbeez
На сайте с 13.06.2012
Offline
68
#10
borisd:
простом решении.

джумлу юзает ТС

:)

благодарю

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий