- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
PHP для этого не предназначен. Так что один из вариантов подвешивать форк процесса и настраивать общение с ведущим:
http://php.net/manual/ru/function.pcntl-fork.php
http://www.phphighload.com/2012/07/pcntl.html
https://github.com/search?utf8=%E2%9C%93&q=PCNTL+php
LEOnidUKG, вам говорят что нужны параллельные вычисления, а вы про многопоточный сетевой обмен.
LEOnidUKG, причем тут multicurl?
Как сказал выше SocFishing пых не для этого. Лучше взять java либо форкать процесс в php что усложняет код (не для новичков).
Варианты есть но всё это костыли.
Мне одному ТС тех.задание не выслал и все знают, что у него там внутри? :)
LEOnidUKG, в том и проблема, что никто не знает что у ТС внутри функции, но только вы советуете мультикурл, непонятно на чем основываясь.
Нужно было для парсинга данных с сайта. Имелся пул id и в зависимости от этого id нужно было отправить около 50 POST запросов которые нужно было выполнить сразу для записи данных в файл. Отправку POST сделал мультикурлом, но из за того, что id много все это хотелось бы сделать быстрее. Подключил библиотеку pthreads и сделал в 10 потоков, что ускорило процесс. Беру пачку id и отправляю для них кучу POST запросов параллельно.
favorit345, проблема решена?
угу, скрипт написан)
интересно, в конечном варианте не параллельные вычисления, а асинхронные запросы