- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кейсо есть.
Тогда оттуда и тянуть, я не думаю, что где-то значимо будет дешевле.
Можно конечно попытать счастья на кворке (если кто-то подобным специально занимается), но вряд ли, слишком узкоспециализированная задача.
Структурировать в Кейсо, кстати, совсем неудобно. )
Структурировать там и не надо :)
На такой объём можно и в ПТ (500к+ запросов за 23к). Но, опять же...
Если в складчину брать, то соответственно будет дешевле.
Я так понял, сам инструмент Вордстат API они ещё не подключили?
Подключили.
В смысле? Вот сейчас семантика для крупной школы в работе, детское развитие и начальное образование, только с префиксом проблемы - 180000 частотных запросов без неявных дублей. ) При том если бить их контент-маркетинг по готовым кластерам, сразу видно, что недоработанные в ширину куски ранжируются значительно хуже. По каким-нибудь кунгам запросов 10000... ) Какая-нибудь микросфера в ортопедии - 5к запросов релевантных.
А кто ж такой объём запросов лопатить будет?
Это до пенсии :)
Если в складчину брать, то соответственно будет дешевле.
Да я его сам вырабатываю. Там лимиты отдельные. ) Т.е. все услуги - n-лимитов. Тариф - количество лимитов.
Подключили.
А кто ж такой объём запросов лопатить будет?
Да нет, неделя. С древовидным структурированием. Ещё неделя - не маркерный LSI. То, что до пенсии, отправляю в Семантист. )))
Я уже давно не вижу на форуме SEO-шников, которые бы серьёзно занимались запросной аналитикой и работали с большими объёмами.
Я таких не вижу уже года 5-7. Как я остались единицы
Я таких не вижу уже года 5-7. Как я остались единицы
Думал, единицы - это те, кто не крутит ПФ бездумно и в постах бывает хоть какая-то конкретика. Как же я ошибался 😀
В смысле? Вот сейчас семантика для крупной школы в работе, детское развитие и начальное образование, только с префиксом проблемы - 180000 частотных запросов без неявных дублей. )
В прямом. Сколько там уникальных слов? Мало вероятно что 180 000, правда? Чем их все парсить проще компилировать взяв частотность за 0, которая по факту "!" и будет ноль у ~170 000
Причем если прикинуть вероятное количество слов к длине фразы, при условии что нам известен результат в 180 000, то фраза врятли будет часто длинее 3-х слов если мы хотим получить словарь хотя бы в 100 слов, потому что словарь в 1000 слов, при прочих равных, даст 170КК фраз
Поэтому сильно похоже на то, что спарсить нужно только то что имеет хоть какую-то точную частотность и потом, составив словарь, просто скомпилировать столько фраз сколько хочется, отсеять дубли и уже после этого заниматься сбором статистики для конкретного списка.
И, как заметил Антоний, конверсии у запросов абсолютно разные
Чем померить конверсию в КК для 180 000 фраз?
Вполне вероятно что я что-то упустил из последних релизов этого инструмента.
Теперь возник еще один вопрос. Сколько фраз из 180 000 я не соберу в СЕРПе ТОП 30, например?
А кто ж такой объём запросов лопатить будет?
Лопатить его не большая проблема... можно даже попытаться на кластеры порубить так что бы структура появилась, а не просто группы фраз. Проблема в том что внедрятся это все будет промтами, со всеми вытекающими последствиями.
Да я его сам вырабатываю. Там лимиты отдельные. ) Т.е. все услуги - n-лимитов. Тариф - количество лимитов.
Так дело в том, что в базовом тарифе существенно дороже получается (как минимум раз в шесть).
А чего они тогда с ценами так выёживаются? )
Заработать хотят. Но у нас на корпоративным 10 плановых пользователей и на каждом плановом пользователей ещё 5 дочерних :)
Да нет, неделя. С древовидным структурированием. Ещё неделя - не маркерный LSI. То, что до пенсии, отправляю в Семантист. )))
Ой. Я думал, у тебя какая-то дорвейная история с такими объёмами, а тут по древу. Я обычно по древу семантику и собираю, а потом его достраиваю по необходимости. Поэтому в общей массе запросов может быть десятки тысяч, но в пошаговом исполнении это куда более посильные объёмы.
Сотни тысяч - это конечно чОкнуться можно.
Лопатить его не большая проблема... можно даже попытаться на кластеры порубить так что бы структура появилась, а не просто группы фраз. Проблема в том что внедрятся это все будет промтами, со всеми вытекающими последствиями.
Под "лопатить" я имел ввиду доводить до целевых ядер и их посадочных с последующим внедрением на офферы. Если работать по интенам, то там нет таких колоссальных объёмов. А вот история разношерстную мешанину в тему и не в тему поубить на кластеры - это тут большой вопрос к специализации.
Для дорвеев, где страницы и их бредосодержание генерируется налету - это одна история, раскачка семантики для контентного проекта (где что найдем, о том и напишем) - другая история, для коммерции - там по структуре, по категориям, товарам/услугам и их интентам.
Под "лопатить" я имел ввиду доводить до целевых ядер и их посадочных с последующим внедрением на офферы. Если работать по интенам, то там нет таких колоссальных объёмов. ...
я выше прочитал. Вопросов стало еще больше))) ну т.е. если у нас дерево с ветками по овер 100К то куда там без каннибализации, особенно в интентном понимании... если проект не миф, яб посмотрел на индексацию и ее состав))) Это же коммерция... должны быть вылеты в LOW DEMAND как минимум.
я выше прочитал. Вопросов стало еще больше))) ну т.е. если у нас дерево с ветками по овер 100К то куда там без каннибализации, особенно в интентном понимании... если проект не миф, яб посмотрел на индексацию и ее состав))) Это же коммерция... должны быть вылеты в LOW DEMAND как минимум.
У меня тоже возникают к бизнес модели. Наверняка можно более рационально анализировать семантику.