А как вы отличите бота от человека? Каждый раз, когда вам предлагают капчу - в вас видят бота.
Это цитата. Там продолжение есть.
Что если сделать так: вместо рандомного вывода материалов, выводить 4 предыдущих материалов, и чтоб после обновления ссылки были те же самые.
Допустим на странице №1 информер выводил ссылку на 2,3,4,5 материал, страница материала №2 информер выводит ссылку на материалы 3,4,5,6. Страница материала №3 информер выводит ссылку на материалы 4,5,6,7 и т.д.
Получается что ссылки будут "вечные" и это, как мне кажется будет более равномерно распределять вес по всему сайту.
Лучше уж так, чем "рандом", хотя схема выбрана всё же странная.Основой надо брать веб-граф, где учитываются семантические связи между документами и пользовательские маршруты (или конверсионная воронка). Ну то есть: зашёл человек на сайт посмотреть сравнение двух фотокамер - логично, что со статьи он должен перейти на страницы с описаниями отдельных камер или на страницы товарных карточек этих камер, а не на сравнение, скажем, штативов.Случайные ссылки, выпадающие из троек "субъект - предикат - объект" обеспечат лишь отсутствие "висячих узлов", но ни грамотного распределения PR, ни улучшения ПФ, ни тем более конверсий не дадут. Даже для статейника стоит связывать документы не по датам публикации, а по тематике и семантическим срезам.
Получать траф по ключам без вхождений на странице. Самые примитивные текстовые алгоритмы никуда не делись и не денутся в обозримом будущем.Ну тупо: вот у меня кластер на 300+ ключей, а речь о посадке под услуги. И часть из них настолько уродлива, что в текст не вставишь, а ПС страничку ранжировать не хотят. Чего б не метатег?
https://habr.com/ru/post/253121/ - вся базовая конкретика. Тема скорее для администратора-системщика, чем для SEO-специалиста. В рамках SEO может пригодиться раз в столетие, например, для работы с клоаками или странностями с кэшами.
Всем привет. Вопрос в следующем. После того как я создал семантическое ядром и кластеризовал эти группы стали состоять из 20-30 ключевых слов. Так вот из из этих 20-30 слов я смог использовать на странице только 6-10 слов (коммерческая тематика) что делать с остальными словами из этой группы?
Во-первых, прямые вхождения необязательны. Ключа в таком виде на странице может и не быть вообще, а страница ранжироваться будет. Тут надо смотреть непосредственно, что за ключ, что за страница (у нас же типа семантический поиск растёт и ширится, ПС считывают интент, а нетекстовый спам, бгг).Во-вторых, те ключи, которые в прямом виде отсутствуют на странице, но страница по ним должна ранжироваться, можно использовать в метатеге keywords - это его единственное использование к 2021 году.В-третьих, эти ключи нужно использовать в качестве анкоров внешних и внутренних ссылок - и они подклеются к запросному индексу страницы.Примечание. Всё это более актуально для Яндекса. Для Гугла надо искать способы добавить "хвосты" таких запросов непосредственно на страницу, лучше всего - именно в прямых вхождениях.
Во-первых, уйдёт-то уйдёт, но когда и как - вопрос. Надо брать под контроль сразу.Во-вторых, кто сказал, что обязательно уйдёт? Часто вижу странички тегов по серьёзным запросам как релевантные. Да, до топов не раскачаешь, но за неимением горничной - дворника тоже того-этого.Кейсы есть, конечно. Далеко не лазать - Трудов, Google Fred, 4 года назад, в паблике есть.
Всем привет!
Стоит ли закрывать архив дат, это когда на дату кликаешь чтобы посмотреть список постов, ну, например, за 2019 год.
Или может сделать как на сайте losst.ru переридерект на главную?
Есть ли вы этом какой-нибудь смысл?
Всё, что не соответствует никакому поисковому запросу и не содержит важных данных, стоит закрывать от индексации. Метатегом noindex, follow - не через robots. Пусть сканируют, но в индекс не тащат.Зачем нужен редирект - не понял. Если ползатель хочет посмотреть на архив данных - пусть посмотрит, он не на главную же просится.