- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Надо пробить списочек из нескольких сотен имен. Вручную делать лень. Написал простенькую программу, вроде все работает, но после пары проверок она встает. Какие тут ньюансы? Зона не RU.
останавливается потому что ограничение количества запросов у каждой зоны свое, выясняете это ограничение и пишете
далее пауза минуту и пановой
Надо пробить списочек из нескольких сотен имен. Вручную делать лень. Написал простенькую программу, вроде все работает, но после пары проверок она встает. Какие тут ньюансы? Зона не RU.
А почему бы не воспользоваться программами для сканирования?
bums, скрипт встает всё время на разных участках. То 2 результата выдаст, то 5, то 14.
Awe, какими например?
bums, скрипт встает всё время на разных участках. То 2 результата выдаст, то 5, то 14.
Awe, какими например?
Как самый простой вариант - программа Domain Name Analyzer от Idotz.net.
Оксиген, скрипт на чём написан? sh, PHP?
Andris, скрипт написан на Perl, запросы идут через сокеты. Думаю, может минутный перерыв делать перед каждым запросом?
Ну так в цикле ставим sleep(60) и вперед. :)
но лучший вариант - использовать несколько десятков прокси для коннекта со whois серваком, тогда дело по-быстрее пойдет.
также неплохо отрабатывать сообщение о превышении лимита, и только после этого приостанавливать скрипт.
azzz, при работе скрипта возникает непонятная проблема. Спотыкается он тут:
Причем значение sleep не играет никакой роли. Что 10 ставь, что 1, хоть вообще убери. Закономерность не прослеживается. То 1 домен проверит, то 10, то ни одного вообще - встает сразу. Сообщений о превышении лимита не видел ни разу.
при работе скрипта возникает непонятная проблема.
Оно и понятно, была бы понятная проблема - ее бы не было. Для нескольких сотен доменов задержки не нужны, как не печально, но ошибка может быть самой заурядной - синтаксической. Я пользуюсь подобной функцией:
$whoisservers заполняете в соответствии с зонами, спотыкаться может только при неопределенной зоне. А с ответом можно делать все что хотите.