- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А если запуск самого себя сделать методом пост с последующим die(); ?
форкнуть несколько процессов можно попробовать.
А если запуск самого себя сделать методом пост с последующим die(); ?
Да какая разница как? Хоть ПУТом, хоть ХЕДом - до фонаря. Проблема в том, что скрипт будет ждать результат курла, фопена или файл_гет_контентса.
Изврат конечно, но можно что бы яваскрипт с фронта, скрипт по таймеру вызывал.
Да какая разница как? Хоть ПУТом, хоть ХЕДом - до фонаря. Проблема в том, что скрипт будет ждать результат курла, фопена или файл_гет_контентса.
можно сокетами - отправить запрос и закрыть коннект, не ожидая ответа.
запрошенный скрипт отработает исправно (с игноре_юзер_аборт конечно).
Да какая разница как? Хоть ПУТом, хоть ХЕДом - до фонаря. Проблема в том, что скрипт будет ждать результат курла, фопена или файл_гет_контентса.
curl_setopt($ch, CURLOPT_TIMEOUT_MS, 1);
Таки да хД
Но я это поборол хД
---------- Добавлено 28.02.2013 в 18:26 ----------
К стати сдеано примерно так:
---------- Добавлено 28.02.2013 в 18:38 ----------
Теперь файл закачивается рекурсивно, все нормально. Но! Я хотел чтобы первые 500килобайт файла, как только пользователь их скачает - начинали бы скачиваться. В это время алгоритм подгрузит остальную часть файла, таким образом ускорится процесс... В общем пользователю будет проще, да и быстрее работать будет.
Не подскажите как это примерно реализовать? Копаю в сторону Chunked transfer encoding, мне именно это посоветовали здесь же на форуме. Но я если честно уже 2 день копаю в эту сторону и не могу заставить алгоритм работать так как мне надо. скачка начинается, но скачиваются только первые 500 килобит, остальное не передается. Что еще досаднее - урл у команды по которой мы получаем первый(начальный) пакет выглядит так: - test1.ru/rec.php, а урл с которого берется второй пакет так: test1.ru/rec.php/?max=6&&i=1 ну и так далее... Естесственно броузер не может собрать все воедино да и не возможно это. Есть мысли какие нибудь по этому поводу? Я уже всю свою фантазию израсходовал(