на скрине ничего сверхестесственного .. просто посмотрите какой процесс, или какие, занимают всю эту память.
может у вас программка какая установлена, по типу майкрософтного Exchange сервера, который всегда занимает всю память, не важно сколько вы ему дадите. Воткнете 16гб, сожрет 16 (ну как бы в винде отобразится что сожрал 16, хотя это и не так, он просто "пометил" все 16 для себя, на деле не юзает), дадите 64гб, покажет что все 64 сразу захавал :) эдакий монстр ...
а может и просто нехватка памяти.. ведь 1гиг это очень мало... что можно в продакшене сделать с 1гигом? o_O
ого а чего репутация минус стопяццот ? :))))) я всего лишь задал 2 или 3 вопроса тут на форуме... ну и советов дал в темах 3-4 штуки...
за что кто минусует, можно как то узнать? иначе смысл то.. я и знать не буду кому что не понравилось?
с задачей справился.
после %пре идти может только %пост скрипт. %инклюд ставится ТОЛЬКО до %packages иначе он не действителен.
Проверено лично :) .
если кому интересно, как работает анаконда инсталлер когда парсит кикстарт:
1 раз считывает секцию %пре и сохраняет в файл в папке /tmp/ а потом запускает,
2 раз читает кикстарт сначала, и учитывает %инклюды + все остальное, и начинает выполнять.
таким образом если мы в %пре создали временный файл с указанием что-куда-зачем (какие диски форматировать и т.п.) то его можно %инклюдить в верху файла и он выполнится.
прикрепляю файл, для тех кто нагуглит этот топик ломая голову что же делать с кикстартом на USB флешке ...
спасибо за советы :) .
В итоге оказалось там баг был, мне разработчики на git ответили что я не самую свежую версию собираю оказывается.. в 2.2.0 баг при сборке из за какой то несовместимости с пайтон библиотекой или типа того.. а 2.3.0 скомпилилась нормально :) , я был приятно удивлен, но неприятно поражен своей глупостью 😂 что сам не догадался проверить какая версия последняя.
насчет ника, ничего громкого, состоит из профессии + специализации, я админ и работаю в основном с rhel :) . было бы "linux guru" вот это уже громко :) .
собирается mapnik, фиговина для карт openstreetmap:
git clone https://github.com/mapnik/mapnik.git
./configure
make
погибает в процессе make.
проверил в dmesg, и правда оказалось никто никого не убивал :) , совпадение получилось что оно умирало именно на 1гб и 5-15 свопа. я и удивился, почему явно вижу что чуток свопа начал использоватся, и тут вдруг обрывается процесс и показывает ошибку.
проверю сейчас локально с 4гб, пройдет до конца или нет. может там ошибка какая и память ни при чем...
извиняюсь за нубские вопросы :) . у меня пол года опыта в линуксе, азъ есмь студент :) .
сделал 10гб свап, эта вражина выгрузила 15мб в него и сдохла! как так?
что то тут не работает.. наверняка какая то опция еще есть... я пока гуглю.. но вроде ничего не найду ..
интересный довольно таки вопрос для меня как джуниор линукс админа.. авось дадут собирать какую срань на сервере с пары гиг оперативки, а ей для сборки 30 гигов надо??
если кто сможет решить вопрос - респект ему и уважуха! (или показать если где лежат доказательства что это невозможно :) , что бы я мог ткнуть боссу бумажку и сказать "это нереально, покупай оперативки больше! юзая своп прога не билдится!")
спасибо.
А можно как то заставить линукс все таки использовать своп именно хотя бы для окончания этой билд операции? указать что этот таск до конца надо сделать во что бы то ни стало, и юзай своп :) это возможно?
оверкомит:
vm.overcommit_memory = 2 (пробвал 1 и 2)
vm.overcommit_ratio = 100
не помогло. ни 1 ни 2. доходит до той же точки билда. может есть еще какой параметр кроме этих двух? гуглю, но про другие не пишут нигде.. тока эти 2...
я кстати всегда думал что ссд диск работает настолько быстро, что и правда можно забить на оперативку и все свалить в своп файл на него 😂 правда ни разу не делал такого эксперимента, не было надобности.
может кто обьяснить - почему большой своп на ссд не будет спасением при нехватки оперативки? насколько хуже будет работать ФС в момент заполнения свопа на 2-3гб например?
спасибо :)---------- Добавлено 23.10.2014 в 16:07 ----------а вот кстати интересное дело.. вам знакомо наверное в момент билда исходников случается ООМ и билд не проходит. я только что добавил 2гб свопа на свой экспериментальный амазон сервер (микро, 1гб рам) и хотел проверить пройдет ли тяжелый билд который обычно не проходит на 1гб (взял mapnik - штука для open-street-map сервера с картами)
так вот, смотрю в одном окошке free. в другом смотрю на какой стадии сдохнет билд.
память быстренько заполняется до 1гб, в своп выгружается 6 МБ всего! и билд останавливается, на том же месте, как и всегда при 1гб.
может кто знает что за безобразие? почему RHEL6.5 не хочет юзать своп хотя бы в такой "экстренной" ситуации, что бы просто закончить билд и все. ведь было бы полезно. нужна мне прога вот на сервере с 1гб, а скомпилировать ее надо 3гб например. если бы через свап процесс можно было бы довести до конца, было бы удобно :( .
подскажите что делать? оно хоть и копейки стоит на амазоне, а знать хочется все равно, почему проги не билдятся в свопе :) .
спасибо!
знаю что тема по идее закрыта, но вставлю свои 5 центов т.к. очень хотелось дочитать и узнать результат оптимизации :) . обломали меня в этом плане :) . я форум почитываю для опыта, когда время есть.
я бы первым делом при нагрузке от мускула полез бы именно в пхп(и прочие) скрипты самого сайта + взялся оптимизировать таблицы сайта. например поудалять везде ORDER BY RAND() (заменив его то есть) и т.п.
т.к. если неправильно написанный сайт и плохо спланированные таблицы mysql сайчас при низком трафике грузят такой сервер - то нагрузка прибавится в геометрической прогрессии со временем наполнения сайта и повышения трафика. Я бы не пожалел времени и денег что бы отполировать сам сайт (если проект серьезный и приносит доходы тем более), т.к. если криво написан - то он и взломам через пхп будет подвержен и прочим проблемам.
Спасибо, удачи.
Делал плеер на флеше для f1cd.ru тоже на nginx (почему некоторым хочется именно nginx для стриминга не понимаю.. почему не red5\wowza и еще несколько альтернатив) там сам видео плеер должен был поддерживать эту фишку (с кучей пхп бакенда) поэтому готовый плеер они не использовали а заказали с нуля разработку. Может вам поискать просто сам плеер который поддерживает работу с видео через nginx? вдруг проблема в этом как раз.---------- Добавлено 11.06.2014 в 12:05 ----------правда это был 2008 год примерно :) , поэтому с тех пор фиг знает что сейчас в плане видео стриминга... может nginx это умеет хорошо делать сейчас?