Каким образом? Я знаком в общих чертах с принципом работы нейросетей, и вы, думаю, тоже. Самообучение требует большого разнообразия данных, согласны? Как человек поймет, о чем книга, если она будет на клингонском, а он, к тому же, никогда ничего до этого не читал? Все познается в сравнении.
Я считаю, что LSI очень сильно влияет на выдачу. Конечно, оно не решает, потому что есть заголовки, ссылки и т.д.(тоже тематику задают), но релевантность самого контента - это его заслуга, и только его. Никаким другим способом, кроме как путем построения терм-документной матрицы, невозможно точнее определить тематическую принадлежность текста. Разве что на кофейной гуще погадать )
Ну это опять таки всего лишь мое скромное мнение. Если у кого-то есть конструктивное опровержение, с удовольствием выслушаю 🍿
Специалист, который не понимает, что LSI - единственный, в общем и целом, способ для робота связать кучу непонятных ему слов в один общий смысл - это плохой специалист, имхо. А который ничего не может объяснить при этом - подавно)) Нейросети работают примерно как мозг человека. Если человеку несколько раз дать по балде после слова "лопата", то он начнет ожидать тумаков после этого слова в будущем, ровно как и поисковик начинает ожидать определенные термины после анализа собранных данных.
Частотность - другой разговор. Тут ничего не берусь утверждать наверняка, но по мне щепетильный подбор окончаний и просчет количества вхождений - это уже задротство какое-то для гиков и маньяков. Считаю, достаточно 1 упоминания каждого ключа в любом виде по ситуации (точное / неточное / разбавленное и т.д).
P.S. Не надо воспринимать LSI как способ создать какой-то "перекачанный" дор, чтобы повысить позиции - нет. Это способ помочь роботам понять, о чем собственно текст, за счет чего, возможно, он будет лучше ранжироваться и показываться по большему числу дополнительных запросов.
Ну это всего лишь мое скромное мнение, господа специалисты 🍿
Подумайте сами, зачем удалять то, что имеет возраст, статический вес и даже приносит трафик? Доработать - это другое дело, удалять - категорически нет. Никто же не отнимает себе левую руку, потому что с левой стороны тело выглядит не таким сильным, как с правой 😂
На самом деле вопрос стоит не так. Не важно, какого размера текст. Важно его качество. Если тема не раскрыта, а сам текст не релевантный, то вы хоть 100к напишите, КПД такого контента будет 0 целых 0 десятых. Следовательно:
"Лонгрид" - это не длинный текст, а ГЛУБОКИЙ ТЕКСТ. На западе его частенько называют deep read.
"группа менее значительных текстиков" - это скорее вопрос кластеризации. Если темы хорошо дополняют друг друга, то их можно группировать по смыслу. Например, из тем "как скачать вк на телефон" и "как скачать вк на компьютер" можно сделать одну статью "как скачать вк" с соответствующими подразделами. Но из тем "как скачать вк на телефон" и "как настроить профиль вк" одна статья уже не получится - это будет очень тупая статья и ранжироваться она будет плохо.
Пришел пару дней назад за помощью на форум - думал, это я плохой сеошник. Пока не почитал, что вы тут несете... 🤣
Ребята, LSI - это латентно-семантическое индексирование или, как любят выпендриваться гуру, "сингулярное разложение терм-документной матрицы". Работает эта хня следующим образом.
Есть матрица (сетка) терминов (слов) и их упоминаний в разных документах. Например:
или так, если от предыдущей картинки у вас случился разрыв шаблона:
Поисковик смотрит, какие термины упоминаются в каких документах и таким образом точнее определяет тему, полноту ее раскрытия в материале, общее качество текста.
Сюда относятся не только "синонимы", а и НЧ-хвосты из нескольких слов (монограммы, биграммы, триграммы ... n-граммы; собираем в вордстате; юзаем удобное расширение для хрома Wordstat Helper), которые позволяют вполне успешно оптимизировать страницу для продвижения по трафику под пару сотен запросов.
Еще нужны слова, характерные для большинства документов топа выдачи. Т. е. если встречается слово "реструктуризация" в большинстве текстов конкурентов на 1-3 страницах, значит оно маст хэв.
Проверить все это дело по Яндексу можно интрументом Арсенкина:
https://arsenkin.ru/tools/sp/ (парсинг подсветок)
или банальным сео анализатором адвего (где видна частота упоминания слов; берем 5-10 текстов конкурентов, проверяем, сверяемся -> lsi ключи):
https://advego.com/text/seo/
Исходя из написанного выше совершенно глупо отрицать то, что LSI влияет на ранжирование. Поэтому, прежде чем сочинять ахинею и вводить новичков в заблуждение, УСТЫДИТЕСЬ И ПОГУГЛИТЕ! 🙅
Ну а что касается самого топика, то как вы такое массово соберете? Только ручками. По своему опыту скажу, что сбор лси под 1 кластер таким способом = 5-15 мин, если руку набить. Удачи. Ну или если у вас большие планы, можете самописный php-парсер всего этого этого добра сделать. Тогда будет массово.
Какой доход был от 3к на контексте, если не секрет?
Попробуйте переместить сайдбар в левую часть на неделю и посмотрите, как изменится ваш доход и поведенческие факторы на сайте (длительность сеанса, глубина просмотра, отказы и тп). Если все пучком, то почему бы и нет 🍿
Если у вас типа MFA сайт, то можно хоть с обеих сторон по сайдбару с рекламой влепить - я такие видел пару штук. Вопрос в том, что вам важнее: чтобы пользователь увидел рекламу (сайдбар слева) или основной контент, ради которого пришел (слева контент).
Напрямую - нет. Поисковику пофиг как вы располагаете инфу на странице. Главное, чтобы для пользователя это было удобно.
Влияет, но незначительно. Если все остальное норм, то смена верстки мало что изменит.
Обратите внимание, что дизайн косвенно влияет на позиции, потому что учитываются поведенческие факторы, которые, в свою очередь, во многом зависят от того, приятен ли сайт визуально. В остальном достаточно логичной структуры и валидной семантической разметки.