netwind

Рейтинг
419
Регистрация
06.05.2007

Сделайте имитацию кусков файла скриптом на php и выкачивайте. Тут, скорее всего, проблема не в процессоре, а в ограниченности ресурсов жестких дисков на vps.

От шифрования придется отказаться в пользу пароля на стороннем сервере.

Yurgon, специальные урл это примерно как MOP1 написал. только скрипт должен выдавать X-Accel-Redirect и завершаться.

перечитай : параметр referrer не передается . hotlink protection это, я так понимаю, не фича сервера, а прием конфигурирования как раз через referer и работает.

Сейчас поглядел - даже плеер youtube не передает referer.

Видимо глубокие механизмы самого флеш-плагина так работают.

Дело дрянь и нужно городить закачку через специальные url ?

или есть плееры доступные в исходниках, которые всегда передают referrer ?

вставайте не в 6:50, а в 9. к тому времени логи уже отротировались и длительные задачи не тормозят сервер вообще и апач в частности и не посылают апачу команды на перезагрузку.

Про упаковку ключей погуглите myisam pack keys.

про преимущества сгруппированного в одной ветке обновления индексов и так должно быть понятно из схемы хранения b-tree.

вбрасываю идею : композитный ключ по перевернутому имени хоста + ресурсу на хосте.

то есть если url http://company.yandex.ru/inside/partners.xml, нужно хранить имя хоста "ur.xednay.ynapmoc" и "inside/partners/xml". такие ключи должны хорошо упаковаться и заполнять дерево с дивной иерархичностью.

ну обычно там upstream sent too big header while reading response header from upstream. что совсем не является следствием плохого качества самого nginx.

grayscale:
netwind, насколько я знаю, под nginx есть соответствующий модуль.. вы-же не хотите сказать что апач без сторонних модулей работает..

хочу сказать что без сторонних модулей работает апач. просто он запускает скрипт ДО того как все тело будет получено, а nginx ждет всего тела.

bearman, так подзапрос тут и не нужен

Беда с md5 в том, что такие индексы слишком случайны. При последовательном сканировании сайта вы получите массу операций на запись в разные участки диска. Но про запись в условии ничего не сказано. Математику-теоретику можно игнорировать такие вещи :)

Инженер-практик (который даже не сомневается, что сканирование сайта должно быть последовательным, ведь он помнит про HTTP/1.1) разбил бы поля на Host и что-там-осталось от url, и сделал бы составной индекс по двум хешам. Можно даже по первым нескольким байтам хеша Host. В этом случае последовательное сканирование сайта вызывало бы запись индекса хоть как то локализованную.

В таблице не обязательно хранить символьное представление хешей, можно и сразу байты.

и что интересно : простой индекс по строке URL в myisam может оказаться лучше из-за того что он упакован. То есть в индексе не хранится все строка, а только разница.

Так что пробуйте все варианты.

grayscale, это лишь выключает буферизацию ответа, но не запроса. поэтому все тиражируемые скрипты загрузки файлов советуют апач. о специальных разработках под nginx речь не идет.

Всего: 6293