- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите актуальный парсер эфира
https://yandex.ru/company/
Вы о каком эфире?
Вы о каком эфире?
Этот https://yandex.ru/company/
/ru/forum/885359 это, не?
Askara, не прощи ли здесь?
(открывать с пустым реферером, т.е. скопировали и вставили в адресную строку)инструмент тоже есть http://tobbot.com/modules/yandex-last20-keywords/
Офтоп: а зачем это надо? Собирать свой приблизительный Вордстат? Жаль, не по регионам(
Простите, а оно работает?
Лет пять назад помню было что там крутили выборку из двух миллионов запросов которые не менялись месяцами. Сейчас что-то изменилось?
Простите, а оно работает?
Лет пять назад помню было что там крутили выборку из двух миллионов запросов которые не менялись месяцами. Сейчас что-то изменилось?
Парсил для своих нужд для теста с год назад примерно - там запросы актуальные были 100% и их явно больше двух миллионов.
Парсил для своих нужд для теста с год назад примерно - там запросы актуальные были 100% и их явно больше двух миллионов.
Да? любопытно. Надо будет попробовать заново. Лет 8-9 назад у меня много разных парсеров водилось) А таймингами не поделитесь случайно? В один поток с одного айпи с какими задержками можно парсить (ну или можно БЫЛО)? На глаз хоть?
Да? любопытно. Надо будет попробовать заново. Лет 8-9 назад у меня много разных парсеров водилось) А таймингами не поделитесь случайно? В один поток с одного айпи с какими задержками можно парсить (ну или можно БЫЛО)? На глаз хоть?
Вроде и не банит вовсе.
Да? любопытно. Надо будет попробовать заново. Лет 8-9 назад у меня много разных парсеров водилось) А таймингами не поделитесь случайно? В один поток с одного айпи с какими задержками можно парсить (ну или можно БЫЛО)? На глаз хоть?
Да, я со всякими прокси не замарачивался, ставил в один поток на фон скрипт на локалке и он на фоне сутками работал и базу ключей собирал) По-моему задержки не ставил никакие - работало и без них.
Собственно, не проблема поделиться скриптом, может будет полезен кому)) хотя он простецкий совсем. Во вложении два файла - один сам парсер (скрипт сам для себя таблицы создаёт, надо только доступ прописать к базе данных). Ключи для удобства разбиваются на таблицы в зависимости от первой буквы ключа (иначе совсем уж большие таблицы получаются). Второй файл - скрипт, который позволяет сделать выборку из всех таблиц по вхождению заданной фразы.
Скорость парсинга что-то около 40 000 ключей в час (очень примерно).
Я для себя запускал, помнится, - сейчас в базе обнаружил что-то около 3.5 миллионов ключей, но это мелочи в общем-то, т.к. сейчас бесплатно раздают базы на миллиарды ключей)