- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет. Видел, но не нашёл тему про парсинг. А уже всё грустно печально совсем с капчёй и объёмом.
Суть задачи - парсинг десятков и сотен тысяч запросов на базовые параметры: все виды частот, данные с Директа. Как правило за год и 50 на 50 с гео и без.
Инструмент: Кейколлектор + приватные прокси. Скорость парсинга ~5000 (все виды частоты) запросов на 1 аккаунт за 8 часов, быстрее, если в словах нет спецсимволов и они не состоят более, чем из 7 слов. Метод парсинга - Яндекс.Директ. На нулевых же аккаунтах (или едва отлёженных), капчка вылетает после обработки пары-тройки сотен запросов и чем дальше, тем больше. Ну и баны прилетают.
Слова вытаскиваются из всех возможных источников: Вебмастер, Консоль, Букварикс, Кейсо, Вордстат, Планнер. Соответственно, адекватных данных на первом скоринге не получить, как и годовой семантики. Делать задачу через Кейсо и аналоги - неадекватно дорого. Но делать через свои аккаунты стало слишком долго. Реально работают только живые аккаунты, с которых были транзакции и Директ (при том одинаково нормально работают и агентские аккаунты и личные).
Соответственно, вопрос: как Вы сейчас обрабатываете огромные ядра?
Парам-пам-пам, никто не работает со структурирование и проектированием интерфейса под SEO или данные слишком ценные? )
У кого есть опыт запросов по API Вордстата таких ядер?
У кого есть опыт запросов по API Вордстата таких ядер?
Они не всем этот апи выдали, мне отказали, сказали, шо тестовый набор закончен, ждите :)
А вообще в вордстате часто какие-то совсем не такие данные, как в реальности :)
Они не всем этот апи выдали, мне отказали, сказали, шо тестовый набор закончен, ждите :)
Та же история. Обидно как то, с учетом что по факту с моей помощью они баг один поправили.
Они не всем этот апи выдали, мне отказали, сказали, шо тестовый набор закончен, ждите :)
А вообще в вордстате часто какие-то совсем не такие данные, как в реальности :)
Вебмастер адекватные данные выдаёт (но не всегда полные), но там по своим словам сделать можно, только обходным и геморойным путём. Есть ещё вариант сравнивать данные через статистику Директа (показы), но там данные тоже плавают, по понятным причинам.
И вы были бы правы лет 7 назад
Да вообще-то это стало актуальным как год. Лет 7 назад в Вебмастере и функционала не было, а Директ не резал так активно ботов (показы против !). Но Вы продолжайте общение не по делу. )
Суть задачи - парсинг десятков и сотен тысяч запросов на базовые параметры: все виды частот, данные с Директа.
по директу, наверное проще купить для уже отобранного...
для грязной выборки (у русского носителя словарь 5000 слов (если повезло)) на 100К это 20 повторений каждой лексемы из базового словаря, проще скрипт написать и компилировать по стеммингу, например.
Частот не будет? Да, но объективно там строго по фразам у 95% все равно 0, а "спрос" не вытащить... бесплатно по крайней мере.
Суть задачи сама по себе странная, ну т.е. если бы я искал конверсию, то искал бы в директе, упущенную в мертвых кампаниях
если бы я искал релевантность, то искал бы в СЕРПах... а что искать в вордстате в 2025-ом, мне не совсем понятно
Суть задачи - парсинг десятков и сотен тысяч запросов на базовые параметры: все виды частот, данные с Директа. Как правило за год и 50 на 50 с гео и без.
Если в таком объёме, то по API с Кейсо самый резонный вариант.
Инструмент: Кейколлектор + приватные прокси. Скорость парсинга ~5000 (все виды частоты) запросов на 1 аккаунт за 8 часов, быстрее, если в словах нет спецсимволов и они не состоят более, чем из 7 слов. Метод парсинга - Яндекс.Директ. На нулевых же аккаунтах (или едва отлёженных), капчка вылетает после обработки пары-тройки сотен запросов и чем дальше, тем больше. Ну и баны прилетают.
В таких объёмах тянуть через прокси с аккаунтам - изнурительное и слишком трудозатратное дело.
Делать задачу через Кейсо и аналоги - неадекватно дорого. Но делать через свои аккаунты стало слишком долго.
Как вариант арендуйте корпоративный аккаунт, там сейчас хорошие лимиты.
300K запросов на корпоративном. Нередко и они не выбираются.
Соответственно, вопрос: как Вы сейчас обрабатываете огромные ядра?
Кейсо и ещё раз Кейсо. По функционалу и возможностям они круто оторвались от всех конкурентов.
неадекватно дорого
Адекватно. Мы берем корпоратив на 5 человек.
300K запросов в месяца на 5 человек, часть из которых и не добирают свой объём покрывает практически полностью весь объём по семантике, которые я веду по своему перечню клиентов.
Парам-пам-пам, никто не работает со структурирование и проектированием интерфейса под SEO
Я уже давно не вижу на форуме SEO-шников, которые бы серьёзно занимались запросной аналитикой и работали с большими объёмами.
а что искать в вордстате в 2025-ом, мне не совсем понятно
Ключи для дорвеев =)))) шуткую =)
Если в таком объёме, то по API с Кейсо самый резонный вариант.
В таких объёмах тянуть через прокси с аккаунтам - изнурительное и слишком трудозатратное дело.
Как вариант арендуйте корпоративный аккаунт, там сейчас хорошие лимиты.
300K запросов на корпоративном. Нередко и они не выбираются.
Кейсо и ещё раз Кейсо. По функционалу и возможностям они круто оторвались от всех конкурентов.
Адекватно. Мы берем корпоратив на 5 человек.
300K запросов в месяца на 5 человек, часть из которых и не добирают свой объём покрывает практически полностью весь объём по семантике, которые я веду по своему перечню клиентов.
Я уже давно не вижу на форуме SEO-шников, которые бы серьёзно занимались запросной аналитикой и работали с большими объёмами.
по директу, наверное проще купить для уже отобранного...
для грязной выборки (у русского носителя словарь 5000 слов (если повезло)) на 100К это 20 повторений каждой лексемы из базового словаря, проще скрипт написать и компилировать по стеммингу, например.
Частот не будет? Да, но объективно там строго по фразам у 95% все равно 0, а "спрос" не вытащить... бесплатно по крайней мере.
Суть задачи сама по себе странная, ну т.е. если бы я искал конверсию, то искал бы в директе, упущенную в мертвых кампаниях
если бы я искал релевантность, то искал бы в СЕРПах... а что искать в вордстате в 2025-ом, мне не совсем понятно
И, как заметил Антоний, конверсии у запросов абсолютно разные и в тематике тех же курсов (дорогая тематика), есть смежные с инфо интенты, которые конвертят в десятки раз лучше. )