- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Только не надо перед началом парсинга забывать заходить в вордстат и придумать чуток стоп слов,
а то думаю, что бездумный запрос типа
+в
точнее его парсинг - займет недельку другую (то есть больше чем без включения головы до и после).
Периодически многие пользователи спрашивают "сколько займет парсинг такого-то числа ключей по частотностям?"
Вот сейчас по ходу работы над ядром запросов решил отписаться.
Сбор с вордстата левой и правой колонки по ключу занял 1 час 20 минут - собрано 95 тысяч слов (общая частотность автоматом естессно)
Далее прошло 2 часа, собрана уточняющая частотность для 18 тысяч слов.
Ради чего это выкладываю - чтобы люди из регионов знали какая возможна скорость сбора информации. Я как раз сейчас не в Москве, а в Тюмени :)
Нажожусь на канале в пару мегабит, работает на фоне Коллектор и торрент, также не ограничиваю себя в серфинге по интернету и остальном что нужно.
Т.Е. на то чтобы НАЧАТЬ работать потребовалась 1 минута (вставить ключ на анализ), затем после окончания сбора слов еще 1 минута (округленно :) ) на то чтобы включить парсинг уточняющей частотности. Дальше Коллектор еб/..ся 3 часа без моего участия :) а я делаю то что нужно делать - работаю над проектами, а не мучаюсь с сем.ядром :)
Уточню - 50 прокси серверов качественных работают в 20 потоков с таймаутами от 1500мс до 4500мс.
Только не надо перед началом парсинга забывать заходить в вордстат и придумать чуток стоп слов
не ну это уже в рамках обычной практики, стоп слова-то
просто это частый вопрос - сколько по времени будет парсинг стольки-то тысяч слов
Версия 2.2.20 (от 12.10.2011):
- исправлен съем позиций в Google, когда URL сопровождался картинкой.
Стоимость лицензии составляет 1070 руб. на один компьютер, 15000 руб. - брендирование.
Подробней о покупке программы вы можете узнать по ссылке: http://seom.info/buy-key-collector/
подскажите пожалуйста, почему сеопульт не парсит украинские слова? Или не парсит слова с украинскими буквами "і", "ї" ? Проблема в кейколлекторе или же в самом сеопульте?
подскажите пожалуйста, почему сеопульт не парсит украинские слова? Или не парсит слова с украинскими буквами "і", "ї" ? Проблема в кейколлекторе или же в самом сеопульте?
Проверяли в Сеопульте? 🍿
Проверяли в Сеопульте? 🍿
всё, вопрос снимается. Проблема в сеопульте :-)
Почему то столбик CPC [YD] не парсица а высчитывается по другим столбикам. В результате у меня из 4993 запросов только 554 имеют значение больше 0 в этом столбике (в Яндекс Директ "Прогноз бюджета" другие значения). В общем, те кто использует KC для парсинга "прогноза средней цены клика" - имейте в виду.
После сегодняшнего апдейта программы, появляется вот такая ошибка...
Появилась она 3 раза после нажатий на кнопку сбора всех данных. Вчера такой баги не появлялось...
Информация в статье верна?
да, почти верна, но как всегда есть маленький нюанс :)
повторение уже введённого слова считается как + 1слово
так что пример "!слово !т !т" следует понимать как "!слово !т" + 1 слово
P.S. из комментария яндекса по данному вопросу в мае месяце этого года :)
KSin, папку Errors и последовательность действий которая привела к ошибке (и проект можете заодно упаковать) - высылайте на myonlinestudio@ya.ru
Но это баг, не стоит на него рассчитывать
посмотрим когда закроют, наверное когда массово начнем парсить :) крупно