- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
проблема заключается не в том что изучение методики LSI могло быть не корректным
Использование (в меру понимания темы экспериментатором) могло быть ошибочным
скорее в том что самый корректный сбор rLSI может строится только на поисковой выдаче ... то есть по определению лучше сделать не получится
Вот уже некорректное допущение, предполагающее, что ранжируемые страницы (все и каждая) содержат полный корпус rLSI. А это вообще-то не так скорее, чем так
Это скорее семантика всего документа целиком.
Документа или сайта, в случае с Яндексом? Оне, "продавцы LSI", не хотят отвечать на этот вопрос... даже не догадываюсь почему, а я вот почти уверен что сайта.
Samba1982, а по какому принципу собираете LSI сейчас на конкурентах? Почему забили на это дело, если раньше дало такой результат?
Документа или сайта
Документ - отдельная страница на сайте. Но мы же понимаем, что документов может быть и ПДФ, который тоже ранжируется. Поэтому - документ. Вовсе не обязательно весь сайт вылизывать по текстам.
Для сбора низкочастотников и в дальнейшем их использования для LSI текстов мне нравится https://mutagen.ru/?p=about . Вполне удобная штуковина, на мой взгляд.
А вот по какому принципу формируются эти ключи на основе контента?
Можно например взять, скачать базу у букварикса - https://www.bukvarix.com/english-keywords.html
Поставить ее, прогнать свои ключи в ней и получим результат. Потом из этого результата нужно как то выбрать то, что подходит.
Пришел пару дней назад за помощью на форум - думал, это я плохой сеошник. Пока не почитал, что вы тут несете... 🤣
Ребята, LSI - это латентно-семантическое индексирование или, как любят выпендриваться гуру, "сингулярное разложение терм-документной матрицы". Работает эта хня следующим образом.
Есть матрица (сетка) терминов (слов) и их упоминаний в разных документах. Например:
или так, если от предыдущей картинки у вас случился разрыв шаблона:
Поисковик смотрит, какие термины упоминаются в каких документах и таким образом точнее определяет тему, полноту ее раскрытия в материале, общее качество текста.
Сюда относятся не только "синонимы", а и НЧ-хвосты из нескольких слов (монограммы, биграммы, триграммы ... n-граммы; собираем в вордстате; юзаем удобное расширение для хрома Wordstat Helper), которые позволяют вполне успешно оптимизировать страницу для продвижения по трафику под пару сотен запросов.
Еще нужны слова, характерные для большинства документов топа выдачи. Т. е. если встречается слово "реструктуризация" в большинстве текстов конкурентов на 1-3 страницах, значит оно маст хэв.
Проверить все это дело по Яндексу можно интрументом Арсенкина:
https://arsenkin.ru/tools/sp/ (парсинг подсветок)
или банальным сео анализатором адвего (где видна частота упоминания слов; берем 5-10 текстов конкурентов, проверяем, сверяемся -> lsi ключи):
https://advego.com/text/seo/
Исходя из написанного выше совершенно глупо отрицать то, что LSI влияет на ранжирование. Поэтому, прежде чем сочинять ахинею и вводить новичков в заблуждение, УСТЫДИТЕСЬ И ПОГУГЛИТЕ! 🙅
Ну а что касается самого топика, то как вы такое массово соберете? Только ручками. По своему опыту скажу, что сбор лси под 1 кластер таким способом = 5-15 мин, если руку набить. Удачи. Ну или если у вас большие планы, можете самописный php-парсер всего этого этого добра сделать. Тогда будет массово.
Еще нужны слова, характерные для большинства документов топа выдачи
для им самым популярным будет руб - по любому запросу
самая популярная биграмма составленая методом пересечения соседних лем руб руб :)
общее качество текста
можно конечно оценить с помощью "школьного теста" - запросу это вообще отношения не имеет ;)
P.S. и до кучи, в подавляющем большинстве коммерческих запросов чистые тексты на фиг не нужны, а поиграть с текстовой составляющей документа практически не реально из-за особенностей цмс и отсутствием у вас реального текстового корпуса данного документа ;crazy:
а поиграть с текстовой составляющей документа практически не реально из-за особенностей цмс и отсутствием
Если только свой "плагин" пилить и/или ручками копать.
и НЧ-хвосты из нескольких слов
Уже давно копают яндексоиды в эту сторону
http://romip.ru/romip2006/03_yandex.pdf
Исходя из написанного выше совершенно глупо отрицать то, что LSI влияет на ранжирование.
ИМХО, в нормально написанном контенте оно и так есть. Больше подходит для доров и упоротых контентщиков, 100500 символов за копейку. Последние зачастую такого спама наделают в погоне за 100% уникальностью, что никакой lsi не поможет.
или банальным сео анализатором адвего
Сюда же текстовый анализатор от мегаиндекса ну и акварель (кажется) от Чекушина
---------- Добавлено 05.06.2018 в 01:28 ----------
для им самым популярным будет руб - по любому запросу
По любому коммерческому запросу;)
Пришел пару дней назад за помощью на форум - думал, это я плохой сеошник. Пока не почитал, что вы тут несете..
Главное отличие новичка от профи простое. Новичок начитается бложиков всяких улыбак-теоритикоф - и принимает это за истину. А за профи - 10 и более летний опыт продвижения множества сайтов.
Специалист, палю тему, порой и сам не может толком объяснить, почему так надо, а так нет. Он это просто знает. А вот когда перестает работать - начинает ковырять, производить эксперименты, на интуитивном уровне. Сайтов у него много, А-Б тестирование доступно, надо только работать...
Для текстов есть технические объективные понятия - тошнота, объем, водянистость. Есть субъективные - полезность и читабельность. Даже самый технически гениальный текст с идеально подобранной частотностью и ЛСИ вылетит из топа по ПФ, если это бредятина. И без ссылок он туда не зайдет, как правило.