Это уже не вопрос краулинга или индексации, это вопрос ранжирования.
Я надеюсь, в общий перечень мы дальше не будем включать темы пользовательской вовлеченности и конверсии? :)
На ссылки поисковый робот смотрит одинакового, если нет явного запрета следования и индексации ПС робот следует по ней и учитывает её. При этом замечу - смотреть и учитывать рассчитанный ссылочный вес - два разных рабочих акта.
Примерно также как смотреть на переписку и участвовать в ней излагая какие-то собственные мысли :)
Есть некоторые тонкости в следовании по ссылкам с атрибутом nofollow, но это вынесем за контекст разговора.
В соответствии c кол-вом входящего суммарного веса на страницу и исходящего.
На самом деле вы углубляетесь в те вопросы, где уточняющими вопросами не найдете для себя какой-то особой полезности.
Страницы пагинации - это типовое решение. Разбираться в передаче ссылочного веса порядковой страницы пагинации - это всё равно, что считать кол-во кирпичей в многоэтажном доме и пытаться разобраться, какую отдельную нагрузку несет отдельный кирпич. Вы напрасно тратите свою энергию и заодно мою :)
Если вас так волную вопросы индексации - создайте отдельную тему, разместите в ней пример вашего сайта и скорее всего вы получите сразу череду бесплатных советов, что и где можно улучшить конкретно по вашему примеру :)
Это будет более продуктивно и конкретно.
Конкурентная модернизация + контентное обновление + трафик.
Две новые страницы никакой погоды не сделают, это так не работает.
Ничего страшного, разобрались.
😎
Вы пока преувеличиваете проблемы.
Если у сайта ясная, продуманная навигация и нет фактических нарушений в виде циклических ссылок, то поисковик найдет ваши страницы, не переживайте. Обойти 1K страниц для поискового робота не проблема.
Cм. про предыдущий пост вам, там перечислены все необходимые меры 😉
У меня были клиенты, которые пагинацию путали с порядковым следование материалов в разделе, поэтому, извините, уточняю :)
В категории может находиться хоть несколько тысяч материалов, но никто их одной портянкой для пользователя не выводит.
Стандартно разбивают для пагинации на 20, 30, 50, в особых случаях на 100 элементов.
Всё чаще используют шаговую дозагрузку "Показать ещё".
Здесь сразу строго разделять два понятия.
1) Краулинг (обход)
2) Индексация - процесс занесения страниц в индексную базу
Так вот для обеспечения краулинга реализуется: а) ясная URL навигация с логикой вложенности адресов б) корректно обновляемая XML карта (+ поддержка lastmod) в) навигационная перелинковка в виде тех же страниц пагинации, доп. выводов и служебной перелинковки через семантические теги
г) сюда ещё можно добавить ручную перелинковку через тело описаний + индексация через API в случае больших объёмов.
д) Поддержка Last-Modified (Since) - также опционально, если у сайта большие объёмы и большая динамика обновлений.
2) С индексацией сложнее - если страница не удовлетворяет критериям качества ПС и не трафика, то вне зависимости физического краулинга со стороны поискового бота поисковик может исключить страницу из поиска.
Ok, разобрались.
В следующий раз указываете точнее о каком типе страниц идёт речь.
Нет, вы имеете полное право выводить доп. блоки с анонсами и ротациями - это так или иначе используют многие статейники, порталы, интернет-магазины в виде "С товаром покупают", "Схожие товары" и т.д.
Если вы используете семантическую верстку, используйте разметку aside.
1) Проблем установить доп. ссылку из описании карточки товара нет никаких проблем.
2) Чтобы выглядело нормально, оформляете неброско ссылки, иногда их оформляют бледно-серым пунктиром, выглядит вполне себе стильно.
3) Доп. перелинковку вас делать никто не обязывает.
Не уверен. Вообще не очень понятно, что он имеет ввиду.
Если пагинация - к служебным страницам вопросов нет, но слово "пагинация" в его тексте нет.
Если внутренние страницы (статьи) раздела сами по себе указывают канон на первую, то здесь странное решение.
Да пусть передаёт, вопрос в другом - те страницы, которые указывают канон на раздел, они как самостоятельные посадочные страницы не нужны?
Само собой, в первую очередь нужно использовать потенциал внутренних факторов, а потом уже точечно по отдельным страницам дожимать ссылками.
Зачем? Какое содержание у этих 50-ти страниц? Они не нужны вам для индексации?
Вес надо распределять в соответствии со значимостью вложенным материалов с помощью перелинковки.
Как к динамическим навигационным блокам.
Фактически по ссылкам на момент индексации.
Была десктопная программа которая рассчитывала веса ссылок (запамятовал название), но в сети можно поискать - она рассчитывала веса страниц.
Для некоторой наглядности просканируйте сайт Frog-ом и отсортируйте страницы по кол-ву входящих ссылок.
И то, и другое - оставляйте, но доп. перелинковку нужно осуществлять по анкорному содержимому внутри самих статей.
Всё просто. Одной лишь накруткой ПФ вы не обеспечите динамику роста поисковой видимости.
Увы, но для уверенного роста и динамики позиций придётся работать по полной программе.
Гугл - не Яндекс, он такого безобразия с накруткой позиций не допустит.