У меня были клиенты, которые пагинацию путали с порядковым следование материалов в разделе, поэтому, извините, уточняю :)
В категории может находиться хоть несколько тысяч материалов, но никто их одной портянкой для пользователя не выводит.
Стандартно разбивают для пагинации на 20, 30, 50, в особых случаях на 100 элементов.
Всё чаще используют шаговую дозагрузку "Показать ещё".
Здесь сразу строго разделять два понятия.
1) Краулинг (обход)
2) Индексация - процесс занесения страниц в индексную базу
Так вот для обеспечения краулинга реализуется: а) ясная URL навигация с логикой вложенности адресов б) корректно обновляемая XML карта (+ поддержка lastmod) в) навигационная перелинковка в виде тех же страниц пагинации, доп. выводов и служебной перелинковки через семантические теги
г) сюда ещё можно добавить ручную перелинковку через тело описаний + индексация через API в случае больших объёмов.
д) Поддержка Last-Modified (Since) - также опционально, если у сайта большие объёмы и большая динамика обновлений.
2) С индексацией сложнее - если страница не удовлетворяет критериям качества ПС и не трафика, то вне зависимости физического краулинга со стороны поискового бота поисковик может исключить страницу из поиска.
Ok, разобрались.
В следующий раз указываете точнее о каком типе страниц идёт речь.
Нет, вы имеете полное право выводить доп. блоки с анонсами и ротациями - это так или иначе используют многие статейники, порталы, интернет-магазины в виде "С товаром покупают", "Схожие товары" и т.д.
Если вы используете семантическую верстку, используйте разметку aside.
1) Проблем установить доп. ссылку из описании карточки товара нет никаких проблем.
2) Чтобы выглядело нормально, оформляете неброско ссылки, иногда их оформляют бледно-серым пунктиром, выглядит вполне себе стильно.
3) Доп. перелинковку вас делать никто не обязывает.
Не уверен. Вообще не очень понятно, что он имеет ввиду.
Если пагинация - к служебным страницам вопросов нет, но слово "пагинация" в его тексте нет.
Если внутренние страницы (статьи) раздела сами по себе указывают канон на первую, то здесь странное решение.
Да пусть передаёт, вопрос в другом - те страницы, которые указывают канон на раздел, они как самостоятельные посадочные страницы не нужны?
Само собой, в первую очередь нужно использовать потенциал внутренних факторов, а потом уже точечно по отдельным страницам дожимать ссылками.
Зачем? Какое содержание у этих 50-ти страниц? Они не нужны вам для индексации?
Вес надо распределять в соответствии со значимостью вложенным материалов с помощью перелинковки.
Как к динамическим навигационным блокам.
Фактически по ссылкам на момент индексации.
Была десктопная программа которая рассчитывала веса ссылок (запамятовал название), но в сети можно поискать - она рассчитывала веса страниц.
Для некоторой наглядности просканируйте сайт Frog-ом и отсортируйте страницы по кол-ву входящих ссылок.
И то, и другое - оставляйте, но доп. перелинковку нужно осуществлять по анкорному содержимому внутри самих статей.
Всё просто. Одной лишь накруткой ПФ вы не обеспечите динамику роста поисковой видимости.
Увы, но для уверенного роста и динамики позиций придётся работать по полной программе.
Гугл - не Яндекс, он такого безобразия с накруткой позиций не допустит.
Есть конечно, ставьте 503 статус для адресов, которые не должны предоставлять рабочую информацию.
Гуглите на тему установки 503 статуса на страницу через htaccess.
Присоединяюсь к вопросу.
Это обновляемая область данных и с развитием поисковой видимости там будут новые запросы, что соб-но и является целевой задачей.
Отсекать эту возможность, это всё равно что выстрелить себе в обе ноги и пытаться ползти к светлому будущему.
p.s. А если там лишь малые крохи, которые как правило и бывают и старте проекта?
Нельзя не учитывать перспективу развития.
Всё это беспредметное забалтывание разговора.
Мы говорили про ботов (напомню) и в формате этого обозначенного вопроса разговор и должен продолжаться.
Про суслика, про охрененный IT, про неизвестную мне компанию Leema которая может сделать не хуже, чем Яндекс - это всё для меня напрасная трата времени и в целом беспредметный флуд. Он имеет место быть в Курилке, но не в теме, куда заходят люди читать про ботов.
Напомню, что в контексте разговора была речь про то, что Яндекс в целом может изменить ситуацию с ботами, но по определённым (известным ему причинам) не делает.