- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ну подскажите уж все тонкости оптимизации страниц пагинации.
Богоносец, вам не подскажу. Вы слишком плохо просите
99% seo советов - бред не смотря на то, что они как-то подтверждены экспериментами, потому что эти эксперименты однобокие, то есть бестолковые!
🍿
А никого не смущает, что Яндекс 100 лет назад ответил на этот вопрос? Или придерживаться рекомендаций поисковых систем нынче не модно?
Цитирую:
Если в какой-либо категории на вашем сайте находится большое количество товаров, могут появиться страницы пагинации (порядковой нумерации страниц), на которых собраны все товары данной категории. Если на такие страницы нет трафика из поисковых систем и их контент во многом идентичен, то советую настраивать атрибут rel="canonical" тега <link> на подобных страницах и делать страницы второй, третьей и дальнейшей нумерации неканоническими, а в качестве канонического (главного) адреса указывать первую страницу каталога, только она будет участвовать в результатах поиска.
Например, страница сайт.рф/ромашки/1 - каноническая, с неё начинается каталог, а страницы вида сайт.рф/ромашки/2 и сайт.рф/ромашки/3 - неканонические, в поиск их можно не включать. Это не только предотвратит возможное дублирование контента, но и позволит указать роботу, какая именно страница должна находиться в выдаче по запросам. При этом ссылки на товары, которые находятся на неканонических страницах, также будут известны индексирующему роботу.
Часто вместо пагинации сайты используют динамическую прокрутку, когда для посетителя, пролиставшего каталог до определённого момента, с помощью JavaScripts загружаются другие товары в данной категории. В такой ситуации необходимо проследить, чтобы весь контент таких страниц отдавался индексирующему роботу (например, с помощью инструмента в Яндекс.Вебмастере), либо чтобы роботу становилась доступна статическая пагинация товаров.
Этот способ хорош потому что:
1. Яндекс видит контент на 2, 3... 100 странице поиска и при этом эти страницы не попадают в индекс.
2. Учитываются все внутренние ссылки.
3. Скорей всего подклеиваются ПФ.
4. и тп и тд
А никого не смущает, что Яндекс 100 лет назад ответил на этот вопрос? Или придерживаться рекомендаций поисковых систем нынче не модно?
А вас не смущает что это уже несколько раз обсудили?)
Помимо яндекса существуют и другие поисковики.
Гугл считает не так как яндекс.
Правда у того же гугла есть утверждение:
Если Google обнаружит ошибки в вашей разметке (например, если отсутствует ожидаемое значение атрибута rel="prev" или rel="next"), дальнейшее индексирование страниц и распознавание содержания будет выполняться на основе собственного эвристического алгоритма Google.
Так что в теории можно не заморачиваться и делать под яндекс, а гугл потерпит (как в свое время с тегом <noindex>).
Пиарщикам ранжирующих систем... свойственно поддерживать мифы, бытующие в ваших тухлых мОзгах.
могут появиться страницы пагинации (порядковой нумерации страниц), на которых собраны все товары данной категории. Если на такие страницы нет трафика из поисковых систем и их контент во многом идентичен
1. Яндекс видит контент на 2, 3... 100 странице поиска и при этом эти страницы не попадают в индекс.
2. Учитываются все внутренние ссылки.
3. Скорей всего подклеиваются ПФ.
Верующие, ПФ чего учитывается, если на такие страницы нет трафика (ссылок на них нет в выдаче)?
2. Покажите учёт всех внутренних ссылок.
1. А зачем Яндекс «видит» контент на 2, 3... 100 странице, если его не надо индексить?
Покажите учёт внутренних сцылок с такого «видимого Яндексу», но не индексируемого контента.
0. Может проблема не в пагинации, а в том, что контент во многом идентичен?.. типа бла-бла-страница-1050.
Но эта проблема легко решаема, например так:
/ru/forum/optimization-practices/common
/ru/forum/optimization-practices/common
/ru/forum/optimization-practices/common
Я делаю так:
1. Ставлю next, prev + под каждую их них прописываю шаблон мета с добавлением номера страницы.
2. Ставлю со всех страниц пагинации каноникал на первую.
3. На первой странице делаю кнопку "Смотреть все" по нажатию на которую отображается весь товар, даже если товаров много.
4. Все остальные страницы закрываю от индексации. Мета выше прописываю на всякий случай, так как Гугл иногда может проигнорировать правила файла robots.
Не забудьте также, чтобы не было внутреннего дубляжа. То есть, чтобы не было одного и того же текста на всех страницах пагинации.
2. Покажите учёт всех внутренних ссылок.
Здравствуйте, Никита!
Не переживайте, робот корректно будет учитывать внутренние ссылки при таком варианте, все показатели для подобных товаров будут рассчитаны в общем порядке, проблем с ранжированием страниц не возникнет.
---------- Добавлено 07.10.2016 в 12:07 ----------
Верующие, ПФ чего учитывается, если на такие страницы нет трафика (ссылок на них нет в выдаче)?
Гипотеза заключалась в действиях пользователей на страницах пагинации, которые перешли на них с сайта. То есть, попали на 1 страницу (или любой другую страницу), а в дальнейшем перешли на 2,3,4...N страницу и сделали какие-то действия.
1. А зачем Яндекс «видит» контент на 2, 3... 100 странице, если его не надо индексить?
Сами страницы индексировать не надо, но ссылки с этих страниц ведут на товары, которые, на некоторых сайтах, больше нигде не доступы, кроме как по этой ссылке. Если бы эти ссылки не учитывались, Яндекс врят ли бы знал о существовании товаров, на которых ссылаются с 50 страницы пагинации и больше не от куда.
Сами страницы индексировать не надо, но ссылки с этих страниц ведут на товары, которые, на некоторых сайтах, больше нигде не доступы, кроме как по этой ссылке
попробуйте получить ссылки со страницы не сканируя её ;)
Если бы эти ссылки не учитывались, Яндекс врят ли бы знал о существовании товаров, на которых ссылаются с 50 страницы пагинации и больше не от куда.
так делают только полные "супер оптимизаторы"?
Smart Shot, попробуйте поработать с сайтом, хотя бы в 100к+ страниц, с непредсказуемым появлением и удалением страниц на сайте (это просто от вас не зависит)
Сами страницы индексировать не надо, но ссылки с этих страниц ведут на товары, которые, на некоторых сайтах, больше нигде не доступы, кроме как по этой ссылке.
Пробовали продавать сцылки с таких страниц, которые индексировать не надо?