- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Bukvarix,
Подскажите, пожалуйста, как так получается, что для слова:
аудитор не должен допускать чтобы предвзятость конфликт интересов либо другие лица влияли на
выдается вордстат
широкий - 148
точный - 15
Ведь такое длинное слово не может быть запрошено по частотностям у яндекса (насколько мне известно).
Откуда взялись тогда эти цифры?
Коач,
Спасибо, нам еще есть куда развиваться дальше :)
vs_sh, вот пример
Bukvarix, какой размер базы фраз для вебсервиса? Добавите урл релевантной страницы дополнительно к уже имеющейся в отчете позиции? :-)
Bukvarix, какой размер базы фраз для вебсервиса? Добавите урл релевантной страницы дополнительно к уже имеющейся в отчете позиции? :-)
База ключевых слов, по которой мы запрашиваем выдачу для Москвы - 105 млн., а остальные - по 30 млн. Ключевые слова отбираем по частотности, это топы.
Возможность сохранять и показывать адрес страницы сайта, найденной по ключевому слову, в наших планах есть. Сейчас мы даже не сохраняем адрес страницы при парсинге для экономии ресурсов и ускорения процесса. Позже (но не в ближайшем будущем) будем сохранять и предоставлять в сервисе.
Bukvarix, спасибо за ответ. Еще заметил, что вы отдаете только 1 млн строк, поясняя это размером xls. Почему бы не использовать csv, в который можно положить более млн строк?
Bukvarix, спасибо за ответ. Еще заметил, что вы отдаете только 1 млн строк, поясняя это размером xls. Почему бы не использовать csv, в который можно положить более млн строк?
SEO66, если без лимита, то есть большая вероятность того, что наша бета (в её текущем виде) просто не выдержит такой нагрузки.
А в вопросе почему именно 1 млн. (а не меньше или больше), то логика была простая:
1) именно столько максимально поддерживает Excel (или бесплатные альтернативы),
2) мы эту цифру вполне "потянем",
3) сайтов, у которых ключевых слов больше 1 млн, относительно мало, и в основном это сайты типа vk.com, mail.ru и т.д. - вряд ли их операторы будут пользоваться нашим сервисом.
Если по каким-либо причинам нужно слов больше 1 миллиона, то можно выгрузить из http://beta.bukvarix.com/ первоначальный список ключевых слов, а потом его расширить с помощью десктопного Букварикса.
Здравствуйте,
Мы подготовили улучшение недавно выпущенного отчета об общих словах нескольких конкурентов (СЯ конкурентов).
Это график к этому отчету, представляющий собой кольцевую диаграмму, которая позволит очень быстро оценить домены конкурентов, т.е. понять "соотношение сил" среди конкурентов и выделить самые информативные и продвинутые в поисковых машинах сайты.
Адрес примера графика
но не всегда получается алгоритмически определить мусор, который очевиден человеку
Вы не всегда алгоритмом сможете правильно удалить мусор. Легко затронуть полезные ключи.
Вам нужно разделить БД на 2 части - "сезонные" и "не сезонные" ключи.
1. "Не сезонные ключи" просто проверить "[!w1 !wN]"
2. А вот "сезонные" придется проверять так каждый месяц.
После первого пункта - будет отличная база.
А вот после пункта 2, через год, будет реально бесценная база. Без мусора, с сезонностью.
Вы не всегда алгоритмом сможете правильно удалить мусор. Легко затронуть полезные ключи.
Вам нужно разделить БД на 2 части - "сезонные" и "не сезонные" ключи.
1. "Не сезонные ключи" просто проверить "[!w1 !wN]"
2. А вот "сезонные" придется проверять так каждый месяц.
После первого пункта - будет отличная база.
А вот после пункта 2, через год, будет реально бесценная база. Без мусора, с сезонностью.
Спасибо за предложение! У нас много разных идей и по поводу использования истории данных, которую мы сохраняем, и по поводу использования точной частотности с фиксированным порядком слов для чистки базы (прямая параллель с вашим предложением), просто не до всего еще дошли руки.
Здравствуйте,
Сегодня мы обновили данные в нашем веб-сервисе подбора ключевых слов по доменам конкурентов.
Поисковая выдача Яндекса запрашивалась со второй половины марта по первую половину апреля 2017 г.
База ключевых слов обновлена в марте 2017 г., частотности по этим словам запрошены также в марте.
Размер базы, по которой запрашивалась выдача для региона "Москва", составляет 105 млн. ключевых слов.
Размер базы, по которой запрашивалась выдача для регионов "Россия", "Украина" и "Санкт-Петербург", составляет 30 млн. ключевых слов.
Адрес веб-сервиса:
http://beta.bukvarix.com/