- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день
:cool:Столкнулся с такой проблемой
Задача: параллельно открыть и обработать содержимое N страниц
Что реализовал:
main.php - скрипт открывает N iframe obrabotka.php в каждый из которых передает различные параметры
obrabotka.php - скрипт обрабатывает содержимое одной страницы (через fsockopen)
Максимальное время обработки obrabotka.php - 2 минуты
Среднее время обработки 1 страницы примерно 30сек
если обрабатывать 1000 страниц - около часа и более занимает
Моя реализация неправильная =(
Помогите реализовать параллелизм выполнения
Чтобы параллельно вызывалось N скриптов obrabotka.php с разными параметрами
могу посоветовать только написать небольшую прогу на Delphi, которая и реализует параллелизм
Нужно именно на php )
Я умею параллелить на Ada,C,Java =)
для параллельного скачивания есть curl_multi
для параллельного выполнения на php тоже найдутся варианты, но это слабая сторона php. мало чего найдете.
для параллельного скачивания есть curl_multi
для параллельного выполнения на php тоже найдутся варианты, но это слабая сторона php. мало чего найдете.
поскольку главная проблема как я понимаю - это именно загрузка - то curl_multi проблему решит на раз - т.к. дальнейшая обработка это уже реально быстро...
Приходилось решать задачи на PHP, требующие многопоточности. Вариант с запуском множества копий скрипта во фреймах отпал сразу. Вообще, дёргать веб-сервер, в данном случае, не стоит. Мне кажется, что самый оптимальный подход - запускать потоки вот так:
Если у нас имеется некий список URL страниц для обработки, перед запуском делим его на число потоков, и, в параметрах, передаём каждому потоку, какую часть списка ему обрабатывать. Оптимальное число потоков определяем экспериментально.
Попробуйте например это
и каким образом?
letsgo, самый неправильный, но простой вариант, смотрим на процессы php в top. В идеале, необходимо дробится такого числа потоков, при котором все запущенные процессы php имеют %CPU. Очень грубый вариант, но, как ни странно, рабочий способ.
Добрый день
😎Столкнулся с такой проблемой
Задача: параллельно открыть и обработать содержимое N страниц
Что реализовал:
main.php - скрипт открывает N iframe obrabotka.php в каждый из которых передает различные параметры
obrabotka.php - скрипт обрабатывает содержимое одной страницы (через fsockopen)
Максимальное время обработки obrabotka.php - 2 минуты
Среднее время обработки 1 страницы примерно 30сек
если обрабатывать 1000 страниц - около часа и более занимает
Моя реализация неправильная =(
Помогите реализовать параллелизм выполнения
Чтобы параллельно вызывалось N скриптов obrabotka.php с разными параметрами
Мы аналогичную систему парсинга на pcntl_fork реализовывали. Не очень удобно, но работает.
В php мультипоточности прямой нет, есть только псевдо ито она реализована через всем известное место.