- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
При большом количестве запросов к google.com с php скрипта, google на время "блокирует" эти действия..
Пример:
url="http://www.google.com/search?q=site%3Anet+inurl%3Asign+HyperBook&filter=1&start=100&num=100"
пример php кода:
$url = "http://www.google.com/search?q=site%3Anet+inurl%3Asign+HyperBook&filter=1&start=100&num=100";
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_HEADER, 0);
curl_setopt($ch, CURLOPT_POST, 0);
curl_setopt($ch, CURLOPT_COOKIE, 0);
curl_setopt($ch, CURLOPT_TIMEOUT, 15);
curl_setopt($ch, CURLOPT_REFERER, $url);
curl_setopt($ch, CURLOPT_USERAGENT, "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; SV1; .NET CLR 1.1.4322)");
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 0);
curl_setopt($ch, CURLOPT_HTTP_VERSION, CURL_HTTP_VERSION_1_0);
$content = curl_exec($ch);
curl_close($ch);
echo $content;
?>
в таком случае google "говорит":
302 Moved
The document has moved here.
"Приносим наши извинения...
.. но в настоящий момент мы не можем рассмотреть Вашу заявку. Компьютерный вирус или шпионское ПО посылает нам автоматические заявки, и, возможно, Ваш компьютер или сеть были заражены..."
Блокирует даже если с каждым запросом менять proxy и добавлять задержку 10-15 секунд.
Подскажите пожалуйста, что я неправильно делаю? :gm:
Подскажите пожалуйста, что я неправильно делаю? 😒
Не знаю, как Вы меняете прокси, но ответ все ж похож на: черезчур часто/много спрашиваете с одного ip.. Я бы тоже это дело мониторил, и блокировал.
Serboy, не меняет он прокси :)
chill, Для парсинга гугля вам необходимо меня прокси, иначе вас попросту гугль забанит, что и произошло, как я вижу.
Ещё нужно:
Пример тут урезанный немного просто. Прокси я-таки меняю перед каждым новым запросом к гуглу.
Пример тут урезанный немного просто. Прокси я-таки меняю перед каждым новым запросом к гуглу.
Может, потому что прокси не анонимные?
Или неужели гугль стал однотипные запросы с разных айпих блочит? 😕
Помнится, когда я писал подобное (год-полтора назад), то никаких проблем не было.
Прокси 100% анонимные.
Вообще действия мои выглядит следующим образом:
Я беру другой прокси - и все повторяется....
могу предположить, что теми проксями, что пользуешься ты, пользуются и тысячи других любителей пропарсить гуглю. в итоге адрес прокси заблокирован. кстати, помнится был запрос, по которому гугля дальше второй страницы не пускала. это было связано с одной обнаруженной уязвимостью
Очень, очень на то похоже. Если пытаюсь парсить без проксей - все просто летает.
На блокировку конкретных проксей указывает еще один фактор. Когда я прописываю прокси в своем браузере и начинаю лазить по сайтам - все ок до тех пор, пока я не захожу на Гугл. Гугл не пускает к себе через некоторые прокси!
Ну дык правильно :D Пользуйся платными, благо не дорого стоит.
Может не в тему: но еще у гугли есть АПИ для этих целей, чтоб не надо было хитрить.
То есть каждый пользователь вашего сервиса юзает свой гуггл кей - и все довольны. Или предоставляете пользователю установить код на его сервак и парсить результаты не с гугла, а с сервера пользователя.
АПИ это конечно хорошо, вот только парсить мне нужно гораздо болше и чаще, чем этот АПИ позволяет 🚬