- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть виртуальный сервер под BSD, 128Мб оперативы, 256 подкачка, 500МГц проц. Хочу зафигарить на него как можно больше сайтов.
Контент динамический, но после первого обращения к странице кешируется на пару дней. Страниц в среднем 600 на каждый сайт.
С базой данных контент не связан - все в файлах.
Щас стоит везде fast-cgi, каждый такой процесс отнимает 7-10 МБ оперативы. Плюс 7-10 на каждый httpd. Плюс mysql (10 МБ на все сайты). В итоге получается максимум 7 сайтов одновременно...
Внимание, вопрос! Если сделать mod_php кушание оперативы сократится? Сможет работать больше сайтов без тормозов одновременно?
Сильно не пинайте - с *nix-ами раньше дел не имел. В инете пишут mod_php снижает безопасность, но в данном случае это некритично - если что все восстанавливается за полчаса.
ИМХО: при динамическом контенте + apache и активной работе с файлами - mod_php лучше.
P.S. Только не пробуйте и даже не смотрите в сторону suPHP оверхед по памяти гарантирован :)
А есть смысл тратить память и на FCGI и на апач? Если сайты не требуют именно вот обязательно каких-то штучек апача, можно попросту от него отказаться. Это один путь. Второй - оставить только апач с mod_php.
И для обоих случаев можно сделать так, что кешированный файл будет отдаваться без участия PHP вообще. (если это допустимо, конечно) В таком случае можно будет и не один десяток сайтиков разместить.
Попробуйте такую конструкцию. Весьма облегчает жизнь серверу.
Используйте mod_fastcgid
При грамотных настройках творит чудеса
А если памяти мало, то mod_fastcgi+php_fpm
Спасибо за ответы, видимо, перейду на mod_php.
Если кому есть что добавить - пишите, тема пока не закрыта.
если не используете специфичные фичи apache то смело переходите на nginx+php в виде fcgi.
самая экономичная система по памяти получится
Щас стоит везде fast-cgi, каждый такой процесс отнимает 7-10 МБ оперативы. Плюс 7-10 на каждый httpd.
У вас что-то крепко не так. fast-cgi процессы не должны столько жрать.
Кроме того, запускать php-fastcgi под апачем - это, какбы, не очень разумно.
У вас что-то крепко не так. fast-cgi процессы не должны столько жрать.
Кроме того, запускать php-fastcgi под апачем - это, какбы, не очень разумно.
ответ породил два вопроса. догадайся какие? ))
на всякий случай:
1- скока обычно потребляет fast-cgi?
2 (главный) - а как разумно?
1- скока обычно потребляет fast-cgi?
У меня жрет мега по полтора на процесс.
upd: а, не наврал - 4 мега.
2 (главный) - а как разумно?
apache - mod_php
php-fastcgi - nginx/lighttpd
В других комбинациях теряется часть бонусов как апача, так и fastcgi.
не забываем про copy-on-write
в реальности получается по ~0.5m на процесс