RAS, поподробнее.
а то некоторые продукты вообще не запускаются если у вас установлены некоторые версии eaccelerator :)
таких некоторых случаев для любого софта можно придумать массу.
Мэкс, не все готовы платить за виндовый хостинг.
а экспорт, по-моему, в том же acccess можно провернуть из одного odbc источника в другой и получится уже mysql.
neznaika, вообще-то xcache по умолчанию скрипты компилирует в отображаемую память mmap.
но иногда действительно может похужеть : на массовом виртуальном хостинге, если на сервере дикое число пустышек-сателлитов.
kxk, да и не важно. centos врядли будет включать в себя пакет не благославленный редхатом.
важно, что xcache прошел некий барьер, а eaccelerator нет.
важно, что мейтейнеры тестируют пакеты, а я нет и не хочу.
kxk, и что, какой php-акселератор там входит в комплект?
Однако xcache уже есть в debian-based дистрибутивах, а eaccelerator нет. Я выбираю надежность и автоматическую установку.
;размер памяти, надеюсь, это интуитивно ясно?
xcache.size = 64M
; поставьте равное числу ядер процессора или процессоров
xcache.count = 2
; вроде как помогает включение
xcache.optimizer = On
Остальные параметры вам вряд ли пригодятся. Оставьте все по умолчанию.
Слава Шевцов, раз уж вы минусами разбрасываетесь, я вам скажу что будет. для вас это будет платное экспертное исследование технологии параллельных запросов библиотеки curl в php.
Работает и 50 кб страничками. Я же чуть выше написал про усложнение теста. жрет 130мб где-то. и это расходуется на буферы, чтобы парсить в самом конце получения данных.
если заморочиться можно переписать на конечный автомат - будет совсем чуть-чуть. но такая техника намного сложнее.
AlienZzzz, вот вы наймите меня и все покажу .
Конечно же, я использовал простейшее выражение, ведь я хотел проверить применимость curl_multi и php.
Хлама никакого нету. Я немного усложнил тест:
увеличил размер файла до 50 кб, увеличил скорость отдачи, добавил в конец файла специальный тег и сделал поиск этого тега :
if (!preg_match("/<p>end<\/p>/",$content)){ print "OOPS2\n"; exit; }
ничего не падает, а значит докачивается без хлама. пхп съел 128 мб и упал. я изменил в php.ini параметр с 128 до 250 мб и все отработало до конца.
да curl multi память любит, вот он запущенный на 1000 потоков, но 71 мб это несмешно даже:
top - 07:12:31 up 1:51, 2 users, load average: 0.08, 0.24, 0.25Tasks: 47 total, 2 running, 45 sleeping, 0 stopped, 0 zombieCpu(s): 0.0%us, 0.0%sy, 0.0%ni, 99.7%id, 0.3%wa, 0.0%hi, 0.0%si, 0.0%stMem: 442428k total, 410976k used, 31452k free, 26112k buffersSwap: 240932k total, 0k used, 240932k free, 270664k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND11881 root 20 0 83432 71m 4188 S 2.0 16.6 0:04.54 php11879 www-data 20 0 10472 7108 632 S 1.3 1.6 0:01.42 nginx
как видно, загрузки практически нет, тк в location я настроил тормозилку :
location /test.html {
set $limit_rate 100;
root /var/www/nginx-default;
}
php-код парсинга тупейший :
if (preg_match("/<title>(.+?)<\/title>/",$content,$titles)){
if ($titles[1]!="Welcome to nginx!") { print"OOPS";exit;}
всего 10000 запросов, параллельно до 1000.
это /status от nginx во время работы теста:
Active connections: 1001 server accepts handled requests 6101 6101 6110 Reading: 0 Writing: 1001 Waiting: 0
time php example.php10000 urls addedreal 1m25.242suser 0m0.556ssys 0m5.244s
кто тут еще против пхп ?
Слава Шевцов, то есть на самом деле вы ничего не тестировали. все ясно.