redeyer

redeyer
Рейтинг
102
Регистрация
27.01.2010
Должность
linux system admininstrator
Интересы
computer, programming, linux, webdesign, copyrighting, seo, psyhology, psyhic, books, music (meloman - metall, classic, russian rock, instrumental) ,guitar
Администрирую сервера. Сделаю аудит и скажу где тормозит. А потом сделаю чтоб всё летало!

Видимо включено сжатие только для основного домена (с www). Попробуйте включить и для без www, или в общем конфиге, для всего сервера. В приведенном конфиге нету ни самого редиректа, ни сжатия. У вас отдельный виртуалхост для домена без www?

Да, во-первых, я-то не против ваших мнений, никаких проблем :) Ибо от мнений, хоть от трёх, хоть от тридцати трёх, апач шустрее работать и потреблять меньше ресурсов не станет, нежели fpm.

Во-вторых, у меня не мнение, а реальные серверы с нагруженными информационными системами на борту.

netwind:
Нет никакого правдоподобного объяснения этому кроме ваших ошибок при измерении.

Аналогично же и ваши возражения выглядят беспочвенными.

mark2011:

Как делаю сейчас... периодически tarом архив, в gzip его и курлом на яндекс диск...

Интересует, есть ли способ проще? в плане ресурсов VDS.. скажем купить где-то VDS, на него ISP а уже средствами ISP настроить бекап, чтобы тот вдс тянул с моего сайта все файлы rsyncом или ещё как-то... ну т.е. чтобы это всё на крон повесить, ибо не хочется, чтобы все файлы в один прекрасный день на *** полетели ))))

короче, можно ли реализовать бекап попроще в плане системных ресурсов?

Легко. Если ваш сайт на ВПС. Просто монтируем яндекс как davfs и rsync таки будет хорошо работать. Всё это вешается на крон. Можно даже в разные папки с разным временем.

Если сайт на шареде, то туда, конечно, яндекс диск не смонтировать. В принципе, tar поддерживает добавление изменившихся и новых файлов к архиву, если паковать без сжатия. Или даже можно просто создавать инкременту с новыми файлами.

Это должно сэкономить время и ресурсы.

Кстати, недавно писал мануал на эту тему, и там описал как раз как бэкапить сайт по ssh на винду. Можно даже по расписанию автоматически. Правда там дан пример со сжатием, то же, что у вас сейчас.

Andreyka:
Снижается немношк, но не в разы. И не по CPU а по оперативке.

Довелось понаблюдать и того, и этого. Таки в разы, и таки по CPU.

Нагрузка по оперативке это вообще ерунда, практически не имеет значения в никсах. Очень редко её действительно не хватает.

Всё верно, сжатие на nginx включается так:

gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript application/javascript;

Добавлять под gzip on;

netwind:
На самом деле нет.

rly? нет - не снижается, или нет - нельзя выкинуть?

SIGSEGV может валиться когда что-то не так с доступами. Сокет с правильными правами создаётся, для юзера которым запущен пул?

Попробуйте добавить к настройкам пула emergency_restart_threshold и

emergency_restart_interval. Хотя, судя по логу они у вас и так заданы.

Я бы попробовал вместо сокета использовать tcp, для начала.

adil07:

RewriteRule ^(.*)/каталог/(.*)$ $1/каталог v1/$2 [R=301,L]
вот что писали в соседней теме, только я не понял как, это применить...

Вставить в htaccess или в конфиг виртуалхоста для сайта. Должен быть включен mod_rewrite в apache. Ещё может статься, что apache нету, а стоит nginx. Для него правило будет другим:

location / {
rewrite ^/(.*)/каталог/(.*)$ /$1/каталог v1/$2 redirect;
}
netwind:
Psychedelic Разумеется, должен быть еще nginx.

А апач можно выкинуть, заменив его на php-fpm. Нагрузка снижается в разы, сайты будут работать шустрее.

По поводу скрипта, приведённого выше - попробуйте вставить в начало скрипта set -x (дебаг в bash) и запустить, посмотреть как он отрабатывает.

Но вообще, я бы не рекомендовал использовать такой подход, потому как пользователи в онлайне при рестарте могут получать ошибки.

MaxRequestsPerChild - гораздо правильней для вашего случая.

Всего: 339