Я пользуюсь.
Обычно до TOP100 нишу не анализируют, только позиции собирают.
Но в общем, любой сервис по съёму позиций, который поддерживает глубину до 100.
Можете взять тот же Topvisor, он до 100-ой позиции точно смотрит.
Очень хорошо :)
Являются, но поисковик понимает, где "тело статьи", а где дополняющие комментарии.
Что касается обновлений - это один из позитивных факторов, поэтому смело обновляйте и делайте всё, что связано с улучшением контента для пользователей.
Главное контролировать ключевую плотность слов в статье, сильно не размывать веса слов, не допускать явного завышения тошноты.
p.s. По возможности почитайте про классическую и академическую тошноту.
Пожалуйста 😉
Как к естественному ходу вещей, иначе бы никто не вносил никаких изменений, страшась потерять позиции.
Всё будет зависеть от фактических текстовых изменений.
Если изменения незначительные, они не скажутся на итоговой релевантности и в этой части у ПС не будет повода менять позицию (хотя естественно позиции зависит не только от ваших локальных изменений).
Как правило, точечные/незначительные изменения в больших статьях не влияют значимо на ключевую плотность.
Чтобы вы поняли можно провести такое бытовое сравнение - изменится ли вкус чая, если вы в заварной чайник добавите ещё одну чайную ложечку кипятка.
Как к дополняющему объёму текста.
СтатЕЙ или статьи? Вы начали с корректирования одной статьи.
Поисковики не оперируют человеческими понятиями. Они обработают любые данные, которые вы им предоставите.
Это всё равно что спросить - как отнесется калькулятор к сложению 5+5.
Можно сказать, что поисковикам всегда "всё равно", в том числе и что будет с позициями вашего сайта.
Редактирование материалов - вполне нормальный процесс.
ПС системы повторно обходят ваши страницы и учитывают изменения.
Улучшение/ухудшения будут зависеть - повышаете вы релевантность документа или снижаете.
Это уже не вопрос краулинга или индексации, это вопрос ранжирования.
Я надеюсь, в общий перечень мы дальше не будем включать темы пользовательской вовлеченности и конверсии? :)
На ссылки поисковый робот смотрит одинакового, если нет явного запрета следования и индексации ПС робот следует по ней и учитывает её. При этом замечу - смотреть и учитывать рассчитанный ссылочный вес - два разных рабочих акта.
Примерно также как смотреть на переписку и участвовать в ней излагая какие-то собственные мысли :)
Есть некоторые тонкости в следовании по ссылкам с атрибутом nofollow, но это вынесем за контекст разговора.
В соответствии c кол-вом входящего суммарного веса на страницу и исходящего.
На самом деле вы углубляетесь в те вопросы, где уточняющими вопросами не найдете для себя какой-то особой полезности.
Страницы пагинации - это типовое решение. Разбираться в передаче ссылочного веса порядковой страницы пагинации - это всё равно, что считать кол-во кирпичей в многоэтажном доме и пытаться разобраться, какую отдельную нагрузку несет отдельный кирпич. Вы напрасно тратите свою энергию и заодно мою :)
Если вас так волную вопросы индексации - создайте отдельную тему, разместите в ней пример вашего сайта и скорее всего вы получите сразу череду бесплатных советов, что и где можно улучшить конкретно по вашему примеру :)
Это будет более продуктивно и конкретно.
Конкурентная модернизация + контентное обновление + трафик.
Две новые страницы никакой погоды не сделают, это так не работает.
Ничего страшного, разобрались.
😎
Вы пока преувеличиваете проблемы.
Если у сайта ясная, продуманная навигация и нет фактических нарушений в виде циклических ссылок, то поисковик найдет ваши страницы, не переживайте. Обойти 1K страниц для поискового робота не проблема.
Cм. про предыдущий пост вам, там перечислены все необходимые меры 😉
У меня были клиенты, которые пагинацию путали с порядковым следование материалов в разделе, поэтому, извините, уточняю :)
В категории может находиться хоть несколько тысяч материалов, но никто их одной портянкой для пользователя не выводит.
Стандартно разбивают для пагинации на 20, 30, 50, в особых случаях на 100 элементов.
Всё чаще используют шаговую дозагрузку "Показать ещё".
Здесь сразу строго разделять два понятия.
1) Краулинг (обход)
2) Индексация - процесс занесения страниц в индексную базу
Так вот для обеспечения краулинга реализуется: а) ясная URL навигация с логикой вложенности адресов б) корректно обновляемая XML карта (+ поддержка lastmod) в) навигационная перелинковка в виде тех же страниц пагинации, доп. выводов и служебной перелинковки через семантические теги
г) сюда ещё можно добавить ручную перелинковку через тело описаний + индексация через API в случае больших объёмов.
д) Поддержка Last-Modified (Since) - также опционально, если у сайта большие объёмы и большая динамика обновлений.
2) С индексацией сложнее - если страница не удовлетворяет критериям качества ПС и не трафика, то вне зависимости физического краулинга со стороны поискового бота поисковик может исключить страницу из поиска.