- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
El_grapaduro, собрать подсказки по каждому ключу в КК? Дешевый вариант, для 6 миллионов :)
donc, проблема в том, что там редко бывают подсказки, по моим ключам. Нужно делать именно анализ семантики конкурентов.
Но если 6 млн запросов, то все топы прочекать это 60 млн страниц. Чет это очень много мне кажется.
El_grapaduro, на самом деле из там больше 15к это по топ 50
можно конечно ограничить топ10
но главное не это, а то что это не работает так как вы планируете ;)
просто взять и использовать не получиться
создать универсальный текст для страницы на основании других страниц получиться, но толку не будет, создать похожий на какой-то конкретно текст - вы будете конкурировать с уже существующим документом и в подавляющем количестве случаев будите намного ниже
открой топ 10 сайтов по запросу и посмотри даже с учётом схожести названий товаров, каждый из представленных в топе делает акцент на чем-то конкретном (футболки/костюмы/рубашки/пляжная одежда/джинсы.....)
надо искать свой акцент - тогда есть шанс что попадёшь в топ
Нужно делать именно анализ семантики конкурентов.
Я давно предлагал скинуться и такой сервис написать. Но всем лень и не нужно, не работает и так далее. Хотя для анализа вполне годная вещь :)
Я для себя наполовину сделал такой через парсер Я + КД, но там возни много. Технически это крайне несложно, но я не настолько крут.
Вставлю свои 5 копеек, в том году жестко заморочился с LSI для того чтоб понять тему, в итоге поставил эксперимент, результат эксперимента - популярный ключ из друх слов вышел в топ 10 и находится уже больше полугода на 5 позиции. Для чистоты эксперимента никакие работы с сайтом не проводились ни внешнии ни внутриннии, сайту 2 года, трафик небольшой, статей всего 170. LSI это не подсказки и не синонимы, это слова задающие тематику, грубый пример из головы - ключ "как готовить лягушачьи лапки", для него LSI слова будут такими - Франция, деликатес, вкус, мясо, рецепт и т.д. ... . Раньше Яндекс использовал библиотеку word2vec https://nlpub.ru/Russian_Distributional_Thesaurus для вычисления LSI слов, вот необученная базовая модель данной библиотеки http://ltmaggie.informatik.uni-hamburg.de/jobimviz/ws/api/russianTrigram/jo/similar/лягушка (в конец урла добавляете свое слово и смотрите результат) но потом они это сильно усовершенствовали и в данный момент LSI лучше брать из статей конкурентов.
поставил эксперимент
А на описание эксперимента уговорю? Без лишних деталей, только для обеспечения воспроизводимости, как требует НМП
популярный ключ из друх слов
Один ключ - это совершенно не репрезентативно. Вполне может быть погрешностью эксперимента.
Один ключ - это совершенно не репрезентативно. Вполне может быть погрешностью эксперимента.
Я не так выразился, главный ключ статьи, самый жирный, самый значимый, есть еще ключи в топе, но их немного, но вот что интересно - по большему числу хвостов ключа, статья на второй странице в выдаче. (возможно внешняя оптимизация и дожала бы все это дело до топа, а может и нет - но я нестал дальше заморачиваться, и разбираться, так как интересовал только LSI ). Возможно и побочный эффект или переоптимизация.
Один ключ - это совершенно не репрезентативно. Вполне может быть погрешностью эксперимента.
Такъ. Кроме того, может быть еще и методология некорректная. Но для верификации (получения возможности ее) на большой выборке - хочется знать не только "сколько", но и "как". Для более реалистичной и объективной оценки
Такъ. Кроме того, может быть еще и методология некорректная. Но для верификации (получения возможности ее) на большой выборке - хочется знать не только "сколько", но и "как". Для более реалистичной и объективной оценки
Тут проблема заключается не в том что изучение методики LSI могло быть не корректным, а скорее в том что самый корректный сбор rLSI может строится только на поисковой выдаче (так как нам неизвестны точные методы ранжирования текстов поисковиком), то есть по определению лучше сделать не получится, так как новых более значимых, весомых (каждое слово rLSI имеет сой вес) rLSI слов мы не получим.