- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую спецов, прошу помощи.
Собственно суть такова, что каждую минуту на сайте должен обрабатываться определенный набор данных. По крону запускается ежеминутно скрипт, но т.к. там задействована проверка внешнего фактора (curl), то в один поток это добро не успевает завершаться, если на каком-то из этапов идет задержка-ожидание ответа.
Реализована псевдо-мультипоточность через multi_curl набор запросов к другому скрипту на том же сайте с передачей ключа блока для обработки (просто "мультик" к конечным точкам по непонятной мне причине привирает - соединение устанавливает, но данные приходят пустые, тогда как по логам отдающий сайт данные отправил на 100% - писался небольшой дебаг-код для контроля). Получается примерно по 30 back-запросов в минуту, которые в нормальном режиме обработки данных завершают выполнение в течение 5-10 сек.
Собственно возникли вопросы следующего характера:
- может ли такой подход подвешивать работу сервера в принципе?
- насколько цифра 43 000 запросов в сутки велика для виртуального хостинга (цифра высчитана просто 30 запр * 60 мин * 24 час)?
- как можно оптимизировать работу многопоточности при условии того, что скрипт должен завершать полную обработку порции данных за минуту, причем осуществляя в параллели curl-обращение к внешним адресам для получения части данных (объем получаемой внешней порции составляет не более 200 байт в JSON-формате)