- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Решил я ночью собрать для 1 статьи запросы. Попробовал разные связки программ
И появились вопросы.
Итак,
1) Первая программа это Букварикс - ввел запрос, получилось 596 запросов и скачал файл
Дальше уже можно ручками чистить ну и кластеризация
Долго в ручную
2) Второй взял КК. Он как обычно начал про аккаунты и тд - я вышел и оставил на потом.
3) Третью взял keyassort я знал, что раньше она была для кластеризации, но с возникновением проблем с парсингом Яндекса и частотностей в ней добавили возможность через XMLRiver парсить яндекс с частотностями.
Скачал, установил, настроил+купил лимиты в XMLRiver. И начал работать. Напоминаю, что в буквариксе собрало по запросу 596.
Начал парсить по инструкции итого получилось 54 результата и высветилась табличка что 128 дублей удалено
В настройках стояло парсиг даже запросов в 0 частотностью
Итого вышло примерно 35 рублей за все.
Дорого.
И меня смутило, что через кейассорт и xmlriver мало спарсило.
4) И тут появляется КК. Я помню и знаю, что там добавили модуль парсинга через XMLriver.
Запустил, добавил в настройках токен с xmlriver и спарсил запрос.
Итого выдало 596 результатов как в буквариксе
5) Думаю, дай проверю. Взял все эти запросы и закинул в кейассорт и снова прогнал. Итого получилось 117 запросов (хотя первоначально было при первом парсинге 54, т.е кей ассорт уменьшил в 2 раза результат)
Меня такое не устраивает т.к он может удалять нужные мне запросы и я не узнаю про это. Да и дорого
6) Что же делать?
Запускаю снова КК и импортирую скачанный файл из букварикса. Итого у меня все запросы+общая и точная частотность. И теперь я могу удалить дубли и почистить мусор. + XMLstock я могу сделать кластеризацию т.к могу спарсить поиск выдачу.
+ это дешевле выходит
+ я сравнил кластеризацию в КК и Кейассорт на харде 3. Практически 1 в 1, правда некоторые запросы надо смотреть по выдаче
/////////////////
1) Теперь вопрос при использовании букварикс+xmlstock аккаунты яндекса и прокси ведь не нужны? (просто на сайте у них написано, что можно в 10 потоков. Это надо у них на сайте выставлять или у мня должно быть 10 прокси??)
2) Может есть и другие связки?
3) Интересует без больших фин затрат.
Спасибо
1) Первая программа это Букварикс - ввел запрос, получилось 596 запросов и скачал файл
Дальше уже можно ручками чистить ну и кластеризация
Долго в ручную
Для чистки лучше использовать KC.
2) Второй взял КК. Он как обычно начал про аккаунты и тд - я вышел и оставил на потом.
Key Collector - это основной инструмент. Все остальные инструменты я обычно использую с ним в связке.
Вы можете использовать чисто свой Я аккаунт, если не собираетесь через него парсить запросы и умеренно парсить данные через Директ сервис.
3) Третью взял keyassort я знал, что раньше она была для кластеризации
И сейчас также используется для кластеризации.
но с возникновением проблем с парсингом Яндекса и частотностей в ней добавили возможность через XMLRiver парсить яндекс с частотностями.
И это полезные дополнения, потому что до настоящего момента спарсить частотку в KC через XMLRiver нельзя, приходится это делать через Keyassort.
4) И тут появляется КК. Я помню и знаю, что там добавили модуль парсинга через XMLriver.
Запустил, добавил в настройках токен с xmlriver и спарсил запрос.
Итого выдало 596 результатов как в буквариксе
Ну, логично, если столько есть, столько и найдет.
Остальное ищите по синонимам и расширяющим фразам.
Запускаю снова КК и импортирую скачанный файл из букварикса. Итого у меня все запросы+общая и точная частотность.
Так и надо.
Я беру списки запросов из Буквариса и Key.so, удаляю общие дубли, затем импортирую в КС с частотами по миру, затем произвожу чистку через минус слова, а затем через неявные дубли.
+ я сравнил кластеризацию в КК и Кейассорт на харде 3. Практически 1 в 1, правда некоторые запросы надо смотреть по выдаче
Да, КС научили делать кластеризацию. Стараниями Ожгибесова.
1) Теперь вопрос при использовании букварикс+xmlstock
xmlriver
аккаунты яндекса и прокси ведь не нужны?
Для массового сборка serp данных (и кластеризации) + позиций нужны.
Но если кластеризацию делать в keyassrot и переносить в КС, а серп вам не нужен, то можно и без аккаунтов.
Смотря какие у вас задачи.
2) Может есть и другие связки?
Сколько связок придумаете столько и будет, SE инструментов довольно много.
3) Интересует без больших фин затрат.
Всем интересно - поменьше платить, побольше данных :)
Для массового сборка serp данных (и кластеризации) + позиций нужны.
Но если кластеризацию делать в keyassrot и переносить в КС, а серп вам не нужен, то можно и без аккаунтов.
Смотря какие у вас задачи.
1) Делаю выгрузку из букварикса
2) Импорт в КК, делаю чистку, удаляю дубли
3) Перед кластеризацией надо же вкладка Парсинг-Поисковая выдача-Собрать данные из ПС Яндекс
Вопрос "собрать данные из ПС яндекс" происходит через XML лимиты? или через аккаунты яндекса и прокси, что забиты в настройках КК?
4) Кластеризация происходит через использование лимитов XML ? или снова КК использует аккаунты яндекс и прокси что забиты в настройках?
Хотел бы собрать большое ядро таким способом, но чтобы не получить бан Ip от яндекса из-за большого количества запросов.
Ведь как я понимаю если используются лимиты XML то все запросы через сервис идут? а мне просто результаты?
////
Насчет и кей ассорта+xmlriver и КК+xmlriver
Почему при одинаковом запросе и одинаковом методе парсинга через xmlriver как отличеаются результаты?
/////
И чем xmlriver лучше xmlstock?
Спасибо
Вопрос "собрать данные из ПС яндекс" происходит через XML лимиты? или через аккаунты яндекса и прокси, что забиты в настройках КК?
Через аккаунт.
4) Кластеризация происходит через использование лимитов XML
Через собранные данные SERP-а.
Хотел бы собрать большое ядро таким способом
Изучайте SERP, смотрите конкурентов, расширяйте перечень запросов через синонимы и тащите по максимуму из Буквариса + вручную Wordstat, если хотите.
Есть также другие источники запросов: MOAB, keys.so, mutagen.
Ведь как я понимаю если используются лимиты XML то все запросы через сервис идут? а мне просто результаты?
Да, сторонние лимиты не привязаны к вашу аккаунту.
Почему при одинаковом запросе и одинаковом методе парсинга через xmlriver как отличеаются результаты?
Честно говоря, не знаю, надо детально сравнивать. Возможно разные настройки по региональности.
И чем xmlriver лучше xmlstock?
Не в курсе. Когда я смотреть XMLstock, XMLriver был дешевле и я переключился на него.