Сделайте имитацию кусков файла скриптом на php и выкачивайте. Тут, скорее всего, проблема не в процессоре, а в ограниченности ресурсов жестких дисков на vps.
От шифрования придется отказаться в пользу пароля на стороннем сервере.
Yurgon, специальные урл это примерно как MOP1 написал. только скрипт должен выдавать X-Accel-Redirect и завершаться.
перечитай : параметр referrer не передается . hotlink protection это, я так понимаю, не фича сервера, а прием конфигурирования как раз через referer и работает.
Сейчас поглядел - даже плеер youtube не передает referer.
Видимо глубокие механизмы самого флеш-плагина так работают.
Дело дрянь и нужно городить закачку через специальные url ?
или есть плееры доступные в исходниках, которые всегда передают referrer ?
вставайте не в 6:50, а в 9. к тому времени логи уже отротировались и длительные задачи не тормозят сервер вообще и апач в частности и не посылают апачу команды на перезагрузку.
Про упаковку ключей погуглите myisam pack keys.
про преимущества сгруппированного в одной ветке обновления индексов и так должно быть понятно из схемы хранения b-tree.
вбрасываю идею : композитный ключ по перевернутому имени хоста + ресурсу на хосте.
то есть если url http://company.yandex.ru/inside/partners.xml, нужно хранить имя хоста "ur.xednay.ynapmoc" и "inside/partners/xml". такие ключи должны хорошо упаковаться и заполнять дерево с дивной иерархичностью.
ну обычно там upstream sent too big header while reading response header from upstream. что совсем не является следствием плохого качества самого nginx.
хочу сказать что без сторонних модулей работает апач. просто он запускает скрипт ДО того как все тело будет получено, а nginx ждет всего тела.
bearman, так подзапрос тут и не нужен
Беда с md5 в том, что такие индексы слишком случайны. При последовательном сканировании сайта вы получите массу операций на запись в разные участки диска. Но про запись в условии ничего не сказано. Математику-теоретику можно игнорировать такие вещи :)
Инженер-практик (который даже не сомневается, что сканирование сайта должно быть последовательным, ведь он помнит про HTTP/1.1) разбил бы поля на Host и что-там-осталось от url, и сделал бы составной индекс по двум хешам. Можно даже по первым нескольким байтам хеша Host. В этом случае последовательное сканирование сайта вызывало бы запись индекса хоть как то локализованную.
В таблице не обязательно хранить символьное представление хешей, можно и сразу байты.
и что интересно : простой индекс по строке URL в myisam может оказаться лучше из-за того что он упакован. То есть в индексе не хранится все строка, а только разница.
Так что пробуйте все варианты.
grayscale, это лишь выключает буферизацию ответа, но не запроса. поэтому все тиражируемые скрипты загрузки файлов советуют апач. о специальных разработках под nginx речь не идет.