- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хочу собрать свою базу дропнутых доменов. Посоветуйте серверный парсер, который бы можно было заточить на съем данных с нескольких сайтов, которые публикуют эти данные с учетом особенности, что переход с одной страницы на другую не чаще чем раз в 30 с.
Далее нужно, чтобы результат сбора проверялся на предмет определения ТИЦ по бару и кнопке, PR и склейку в Яндексе и Гугле.
Есть готовое решение?
Есть готовое решение?
В паблике бесплатно думаю нет.
Если только кто-то не поделится самописным, что врятле!
А вообще для таких целей, лучше написать самому, или попросить за деньги чтобы написали.
Это понятно, само-собой.
Я думал найти php парсер, который бы снимал данные. Определение параметров - вопрос номер два.
Хочу собрать свою базу дропнутых доменов. Посоветуйте серверный парсер, который бы можно было заточить на съем данных с нескольких сайтов, которые публикуют эти данные с учетом особенности, что переход с одной страницы на другую не чаще чем раз в 30 с.
Далее нужно, чтобы результат сбора проверялся на предмет определения ТИЦ по бару и кнопке, PR и склейку в Яндексе и Гугле.
Есть готовое решение?
Слышал, что руки и глаза очень хороший вариант по сбору дропов. Софт всё равно рано или поздно даст сбой, цена которому потерянные деньги за регистрацию непойми чего.
Всё равно же потом оценивать будете, не только просто база нужна...
А так - каждый дроп день выкладывают регистраторы в файлах.
Теоретически: настроить даунлодер, где в имя скаченного файла будет добавляться сегодняшняя дата, и всё.
Вот пример.
http://auction.nic.ru/forbuyer/download_list.shtml
Аа... Вам же чисто дропы нужны, а не освобождающиеся... Тогда да, тут сложнее. Да и сервисов, которые освободившиеся показывают, помоему не так много осталось. Я только один знаю.
Посмотрите в сторону программы Юшка, вроде u75.ru. программа показывает списки дропнутых доменов вместе со всеми параметрами
я для этих целей юзал Offline Explorer Pro, выкачивал нескоко сайтов со списками дропов целиком
потом распарсивал их локально самописным скриптом, и получившиеся списки чекал на параметры