- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день .
Меня интересует тема с парсингом яндекса .
Всем известно , что у яндекс xml ограничение в 1000 запросов в сутки с одного ИПа ,
а у обычного яндекса стоит только произвести быстро несколько запросов , он ставит каптчу .
Есть ли какой нибудь уже придуманный обход ?
Или стоит попариться с yandex xml , а именно после каждых 1000 запросов отправлять пост запрос на новый логин в яндексе и подключаться к прокси ?
Слышал также , что найден обход каптчи яндекса ( типо за 2 недели типо программисты решили проблему ) .
Кто что может сказать ?
типо за 2 недели типо программисты решили проблему
Хорошие программисты, ага. Парсите медленнее - не будет вам каптчи.
Хорошие программисты, ага. Парсите медленнее - не будет вам каптчи.
sleep в 5 секунд между запросами даже не помогает
sleep в 5 секунд между запросами даже не помогает
Мне помогает задержка в 1 минуту через каждые 20 запросов при условии, что я залогинен. Скорее всего и через каждые 30 запросов прокатит, не пробовал.
wtfowned,
sleep в 5 секунд между запросами даже не помогает
Вам ничего не поможет :D
Кража контента или в данном случае выдачи мало кем приветствуется, так что если и впрямь пытаетесь делать че-то подобное, тогда вам в поиск или в учебники...
sleep в 5 секунд между запросами даже не помогает
Парсить надо в 1 поток, и задержка между запросами 2 секунды, все работает, проверено. Капча не появляется.
DENIEL, если ты собираешься что-то парсить , это не значит что это кража контекта .
В моем случае это написание программы под веб наподобие site auditor .
Адвокат, Ей богу 5 секунд пробовал , вылезала +)) Ладно , попробую ещё .
А вообще тему я создал именно о yandex xml , мне интересно , можно ли как нибудь обойти их ограничение в 1000 запросов . У меня с работы были 2 человека на конференции на той неделе , и там народ говорил , что это все фигня , все легко , проблемы могут возникнуть только если , например , 1 мил запросов в день +)) Ну они подумали , что все так просто , и даже не спросили подробностей )
А также такой вопрос , может немножко не в тему .
Я юзаю функцию file_get_contents и домом по ней пробегаюсь . Но проблема в том , что на это уходит довольно много трафика , так как сохраняются ещё картинки и вся байда . Что можно сделать в такой ситуации ? П.С. регулярки ненавижу
string file_get_contents ( string filename [, bool use_include_path [, resource context [, int offset [, int maxlen]]]] )
Даже на оффе нету разяснения , для чего в данном случае context и offset ://
Теоритически наличие сайта в РСЯ снимает лимит на 1000 запросов в день.
Но лично у меня ситуация такая:
Сайт в РСЯ. 5 минут назад превысил лимит в 1000 запросов. Дальше ничего не работает, то есть лимит для IP в РСЯ сохранился и равен 1000 запросов, как побороть - не знаю.
Но проблема в том , что на это уходит довольно много трафика , так как сохраняются ещё картинки и вся байда .
Картинки и вся байда не сохраняется, если Вы не имеете ввиду просто их адреса в полученном тексте.
Используйте http://ua2.php.net/manual/ru/ref.curl.php
А file_get_contents(), все есть на оф. сайте
int offset [, int maxlen]]] - содержимое файла возвращается в строке, начиная с указанного смещения offset и до maxlen байтов
Что такое context почитайте в комментах
http://ua2.php.net/manual/ru/function.file-get-contents.php
DANIEL, спасибо !
Че то я ступил по поводу картинок :///