- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как раз обрабатываю в КК проект. Только что спарсил «KEI Яндекс» для 4К ключей через забугорные полу-приватные прокси. Капча почти на каждом запросе (3900 капч rucaptcha.com на 2к ключей). В среднем сожрало по 14 рублей на 1000 капч.
раньше так часто не встречалась капча. Наверняка виной вчерашние глюки Яшки, возможно стабилизируется ситуация со временем.
Перешел бы на биржы XML, но как писалось выше, там абонплата помесячная, а лимиты посуточные, так что всегда будет недостача или простой лимитов. Ну и в XML иногда бывает небольшая разница с реальной выдачей. Не хочется рисковать, снимаю показатели как для своих потребностей, так и для клиентов.
Покупать лимиты не для серверного ПО - не вариант! Мало того что есть лимит на сутки, так есть еще лимит почасовой, в рабочее время 10% в час от суточного лимита.
А выше я пример приводил с ценой в 10 рублей за 1000 запросов без абонплаты - здесь http://seozoo.ru/api/keycollector
По разногласиям с обычной выдачей - они есть, но они довольно редки(1 из 40-50 запросов), минимальны и обычно не в топе. Для меня, например, нет разницы на 15 месте запрос или на 16.
http://seozoo.ru/api/keycollector
Спасибо тебе, милый человек! :)
Иногда, время оптимизатора стоит дороже 10 рублей...
С целью с экономить время,усовершенствовать качество проведения работ ,оптимизаторы не жалеют деньги на программы.В нашем случае на КК и сторонние сервисы...Вопрос в другом,какая схема практичние и с наименьшими затратами(временными, денежными и т.п),каждый определит для себя сам.У каждого человека разные потребности!
(-)
😮Уважаемый Dolph, не постараетесь объяснить, за что репутацию понизили? Личная неприязнь или не нравится когда Вам вопросы задают?🙅
Несколько дней назад Яндекс ужесточил санкции. В настоящий момент мы работаем над улучшением ситуации с капчей.
Приносим извинения за временные неудобства.
P.S. Пока что можно пробовать работать через XML (в "Настройках - Парсинг - Поисковая выдача"). XML может быть как оригинальный, так и выкупленный на каком-либо сервисе: http://seozoo.ru/api/keycollector (ссылка дана лишь для примера. За финансовые вопросы и стабильность сайта мы отвечать не можем).
Добрый день! Вопросик...
При парсинге wordstat, однословного запроса ограничение в 2000. Затем копирую этот список и загружаю во вкладку "Добавить фразы" и запускаю парсинг. Равносильно глубине 1 (хотя по скорости мой вариант быстрее, чем через глубину). При таком варианте, найдет ли коллектор все слова с низкой частотностью, если слово + не встретилось в 2000?
Пример: Запрос "ванна", 2000-х тыс. слово - "Ванная сварка" - 1352(частотнось). Найдет коллектор запросы "ванна спа" (1046) и "ванны для ног спа" (33).
Scarewww, найдет все то, что выдаст сам вордстат. Вообще глубина (или вариант как сделали Вы, который более правильный) помогает найти больше фраз, да.
...Пример: Запрос "ванна", 2000-х тыс. слово - "Ванная сварка" - 1352(частотнось). Найдет коллектор запросы "ванна спа" (1046) и "ванны для ног спа" (33).
Уже задумывался над этим и проверял год назад. Вы все верно подметили, он НЕ найдет "ванна спа" никогда, какую бы вы глубину не задавали. А "ванны для ног спа" может найти, если вы принудительно зададите парсинг ВЧ фразы «ванна +для» (знак плюса необходим для таких приставок, поскольку вордстат игнорирует их по умолчанию), Вордстат не покажет ее, поскольку она хоть и ВЧ, но бредовая по его мнению. Такие приставки (стоп-сова) Вордстат часто игнорирует, и скрывает с ними ключи.
1. Вот список приставок которые я использую при парсинге ВЧ ключей, хвосты которых не помещаются в 2К результатов:
Перемешать с ВЧ ключами легко утилитой http://www.seogenerator.ru/download/ . Не забудьте потом авто-заменой через регулярные выражения в Notepad++ заменить пробел и начало строки (« » и «^» соответственно) плюсами, а то некоторые из таких приставок проигнорятся.
2. Второй вариант: чтобы докопаться до упущенных двух-словников при парсинге ВЧ одно-словника: добавлять в стоп слова KeyCollector ключи, которые идут в паре с нашим одно-словником, и которые мы спарсим при втором круге. А именно самые часто встречаемые ключи, то есть те, что ближе к началу списка хвостов при парсинге по первому (нулевому) кругу.
3. Еще можно подключить выборку из баз (Пастухов и т.д.), но там устарелые ключи. Но зато среди кучи мусора попадаются НЧ хорошие на больше чем 7 слов в ключе (Вордстат такие скрывает).
4. Просклонять наш ВЧ-ключ ( http://morpher.ru/Demo.aspx?s=ванная ), и запустить на парсер список склонений, но с приставкой «!»:
5. Последний вариант: найти 1-10К самых часто встречаемых в русском языке одно-словников, и распарсить их комбинации с нашим ВЧ одно-словником. Этого не пробовал, но идея толковая.
Вот такие приключения я нашел на свою попу, когда задачей было «Найти абсолютно все хвосты для ВЧ ключа».
Спасибо интересный вариант. Думаю, что если ещё использовать поисковые подсказки, то семантика будет достаточно полной
Почему при парсинге точных вхождений в заголовок выдает неверную инфу? С учетом словоформ выдает очень не верные данные. Почему?
orka13, тут можно идти по пути сбора множества мусора и потом его разгребать - т.е. поисковые подсказки, с перебором, в этом есть смысл тоже
Почему при парсинге точных вхождений в заголовок выдает неверную инфу? С учетом словоформ выдает очень не верные данные. Почему?
ничего конкретного без примеров ответить не сможем, лучше всего в тикеты