- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Когда-то давно когда делал сайты слышал что лучше закрывать категории, типа дублируются заголовки и описание.
но вот на днях полчил рекомендацию от адсенс, что лучше раскрыть:
это понятно.. но не станет ли от этого хуже?
добавьте в роботс
User-agent: Mediapartners-Google
Disallow:
и перестанет ругаться☝
а что касается дублей.. так индексацию пагинации запретить, а сами страницы разделов привести в порядок: оптимизировать, уникализировать тайтл и дескрипшен, уникальные анонсы к статьям
затем продвигать:)
Категории, как и пагинацию нельзя запрещать индексировать. Нужно добавить на постраничную навигацию код rel=«next|prev».
Подробно: http://habrahabr.ru/post/128746/
На категории добавить описания - 1-2 тыс симв.
пагинацию нельзя запрещать индексировать
нельзя или не рекомендовано? то есть я всегда запрещаю, а может нельзя?:)
заранее благодарю за ответ
нельзя или не рекомендовано? то есть я всегда запрещаю, а может нельзя?:)
заранее благодарю за ответ
Зачем ее закрывать? Это не дубли, это часть сайта. Поисковики рекомендуют разбивать длинные страницы на несколько страниц, т.е. если есть пагинация - вы сделали все верно, да и ботам проще бродить по сайту, если половина не закрыта от индексации. Особенно если у вас много-много новостей в каждой категории, а перелинковка неудачная.
Учитывайте так же, что поисковикам не нравится, когда многое на сайте закрыто от индексации - они хотят видеть все, что вы показываете людям.
поисковикам не нравится, когда многое на сайте закрыто от индексации/QUOTE]
индексацию пагинации я запрещаю, чтобы не дублировать мета теги разделов на страницах пагинации. также на страницах пагинации всех комментариев пользователей и прочие рейтинги статей, последние темы на форуме. это и метатеги дублирует, и сам контент, ведь, например, комменты .. они и под статьей и в списке последних комментов. так зачем дважды давать поисковику один и тот же контент да еще и с неуникальными тайтл и мета тегами?
безусловно, можно вымучать каноникалы, спрограммировать чтобы на второй, третьей, N странице в тайтл и дексрипшен дописывалось "страница - N" и рел ="след", рел="предыд" намутить.
Но не проще ли на страницах разделов вывести больше статей, сделать самогененрирующуюся карту сайта, чтобы роботы все видели что нужноиндексировать, а пагинацию запретить. в Гугле вебмастере 0 ошибок оптимизации html у меня на сайтах, то есть гугл любит когда дублей нет.
Хотел сказать, что не привели Вы агрументов в пользу пагинации...
так зачем дважды давать поисковику один и тот же контент да еще и с неуникальными тайтл и мета тегами?
безусловно, можно вымучать каноникалы, спрограммировать чтобы на второй, третьей, N странице в тайтл и дексрипшен дописывалось "страница - N" и рел ="след", рел="предыд" намутить.
Но не проще ли на страницах разделов вывести больше статей, сделать самогененрирующуюся карту сайта, чтобы роботы все видели что нужноиндексировать, а пагинацию запретить. в Гугле вебмастере 0 ошибок оптимизации html у меня на сайтах, то есть гугл любит когда дублей нет.
Хотел сказать, что не привели Вы агрументов в пользу пагинации...
Если вы прописываете: "спрограммировать чтобы на второй, третьей, N странице в тайтл и дексрипшен дописывалось "страница - N" и рел ="след", рел="предыд" намутить." - то страницы не будут дублями и будет 0 ошибок оптимизации.
А "вымучать каноникалы" на пагинации не нужно.
Я вам говорю свое личное мнение, основанное на многолетней практике. Аргументы ищите, пожалуйста, самостоятельно :)
Я бы просто прописал на пагинированных страницах (кроме первой) метатег "noindex, follow". Это скажет роботам не помещать эту страницу в индекс, но проходить по ссылкам на ней.
Я бы просто прописал на пагинированных страницах (кроме первой) метатег "noindex, follow". Это скажет роботам не помещать эту страницу в индекс, но проходить по ссылкам на ней.
комильфо:)
а можете хоть примерно начертать как это буит реализовано? проверку нужно делать на несуществующие страницы пагинации?
wildbeez, как на джумле, не знаю. Я на друпале делал через хук: у страниц, в урле которых имеется параметр page=n, у меня в хуке добавляется метатег <meta name="robots" content="noindex, follow" />.
Я выбирал из нескольких вариантов решения этой проблемы и в итоге остановился на вышеуказанном, как самом простом и универсальном (для гугла и яндекса) решении.
простом решении.
джумлу юзает ТС
:)
благодарю