soko1

soko1
Рейтинг
3
Регистрация
02.05.2014
Должность
system administrator
Интересы
linux, openbsd, admin
pupseg:
[root@ip-static ~]# rpm -qa | grep kernel
kernel-firmware-2.6.32-358.18.1.el6.noarch
kernel-headers-2.6.32-431.17.1.el6.x86_64
dracut-kernel-004-303.el6.noarch
kernel-2.6.32-358.el6.x86_64
kernel-2.6.32-358.18.1.el6.x86_64
[root@ip-static ~]# uname -a
Linux ip-static.net 2.6.32-358.18.1.el6.x86_64 #1 SMP Wed Aug 28 17:19:38 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux
[root@ip-static ~]#

На 2.6 у меня вообще нигде эксплойт не сработал. Такое чувство что автор ошибся.

Кстати, сайт с тем эксплойтом уже не доступен. Наверное их же этим эксплойтом и положили :D

Romka_Kharkov:
Уже смекнул, по версии штатного ядра. спс.


Печалька, закрываем SSH отключаем компиляторы?

Отключение компиляторов не спасёт - бинарь можно ж и с другой машины принести)

Romka_Kharkov:
Обсуждение уже идет вот тут
/ru/forum/comment/12848817
Тема создана за 15 минут до вашей :)

Хех, бывает :)

---------- Добавлено 13.05.2014 в 15:03 ----------

pupseg:
чето нифига ....


[testuser@ip-static ~]$ wget http://bugfuzz.com/stuff/cve-2014-0196-md.c

--2014-05-13 08:16:26-- http://bugfuzz.com/stuff/cve-2014-0196-md.c
Resolving bugfuzz.com... 71.19.145.114
Connecting to bugfuzz.com|71.19.145.114|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 5305 (5.2K) [text/plain]
Saving to: `cve-2014-0196-md.c'

100%[=================================================================================================>] 5,305 --.-K/s in 0s

2014-05-13 08:16:27 (436 MB/s) - `cve-2014-0196-md.c' saved [5305/5305]


[testuser@ip-static ~]$ gcc cve-2014-0196-md.c -lutil -lpthread
[testuser@ip-static ~]$ ls -al
total 52
drwxr-xr-x 2 testuser testuser 4096 May 13 08:16 .
drwxr-xr-x. 3 root root 4096 May 13 08:13 ..
-rwxr-xr-x 1 testuser testuser 18 Jul 18 2013 .bash_logout
-rwxr-xr-x 1 testuser testuser 176 Jul 18 2013 .bash_profile
-rwxr-xr-x 1 testuser testuser 124 Jul 18 2013 .bashrc
-rwxrwxr-x 1 testuser testuser 11327 May 13 08:16 a.out
-rw-rw-r-- 1 testuser testuser 5305 May 12 13:13 cve-2014-0196-md.c
[testuser@ip-static ~]$ ./a.out
[+] Resolving symbols
[+] Resolved commit_creds: (nil)
[+] Resolved prepare_kernel_cred: (nil)
[testuser@ip-static ~]$


хотя от рута запущенный - работает. но от рута - не интересно:)
От рута и не интересно и бесполезно :) А какое ядро у вас?
Cult-Design:
Недавно увидел сие чудо.
10 $ за терр. в месяц.
Очень хочу устроить на Google Drive дополнительное хранилище - бекапы, файлы, дополнительный диск, к которому я могу "обратится" в любое время и с любого места.
Вопросы.
1) Как проще всего "заливать" на Google Drive с компа - ( MAC OS)
2) Есть сервер на Hetzner.de - кто поможет ( за деньги) настроить, что бы бекапы заливались туда.
3) Актуально ли купить сразу Google Apps для бизнеса ?

1) вот так: https://support.google.com/drive/answer/2374989 :)

2) могу помочь

3) я бы не советовал в том случае, если если у вашей фирмы/организации есть какие-то персональные данные, которые требуют анонимности. Либо всю информацию шифровать (что не очень удобно в случае с этим инструментом, но возможно), но лучший вариант - поднять свой сервер (с самой минимальной конфигурацией) и настроить там облако, доступ к которому будете иметь только вы и люди, которым вы доверяете (с этим тоже могу помочь).

Юрий_:
Добрый день!
Можно как-то ускорить процесс? Например, как то заставить mysql сливать изменения на HDD раз в минуту.

Советую вам поиграться с sysctl-переменными, подробнее можно тут почитать, например: http://drupal-admin.ru/blog/%D0%BE%D0%BF%D1%82%D0%B8%D0%BC%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F-linux-%D0%BF%D0%BE%D0%B4-%D0%BD%D0%B0%D0%B3%D1%80%D1%83%D0%B7%D0%BA%D1%83-%D0%BA%D1%8D%D1%88%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D0%BE%D0%BF%D0%B5%D1%80%D0%B0%D1%86%D0%B8%D0%B9-%D0%B7%D0%B0%D0%BF%D0%B8%D1%81%D0%B8-%D0%BD%D0%B0-%D0%B4%D0%B8%D1%81%D0%BA

Вот из основного:


/proc/sys/vm/dirty_writeback_centisecs (default 500): в сотых долях секунд. Этот параметр означает как часто pdflush возобновляет работу для записи данных на диск. По умолчанию возобновляет работу 2 потока каждые 5 секунд.
Возможно недокументированное поведение, которое пресекает попытки уменьшения

dirty_writeback_centisecs для более агрессивного кэширования данных процессом pdflush. Например, в ранних версиях ядра 2.6 Linux в файле mm/page-writeback.c код включал логику, которая описывалась "если запись на диск длится дольше, чем параметр dirty_writeback_centisecs, тогда нужно поставить интервал в 1 секунду". Эта логика описана только в коде ядра, и ее функционирование зависит от версии ядра Linux. Так как это не очень хорошо, поэтому вы будете защищены от уменьшения этого параметра.

/proc/sys/vm/dirty_expire_centiseconds (default 3000): в сотых долях секунд. Этот параметр указывает как долго данные могут находится в кэше, после чего должны быть записаны на диск. Значение по умолчанию очень долгое: 30 секунд. Это означает, что при нормальной работе до тех пор пока в кэш не запишется достаточно данных для вызова другого метода pdflush, Linux не будет записывать данные на диск, находящиеся в кэше менее 30 секунд.

/proc/sys/vm/dirty_background_ratio (default 10): Максимальный процент оперативной памяти, который может быть заполнен страничным кэшем до записи данных на диск. Некоторые версии ядра Linux могут этот параметр устанавливать в 5%.
В большинстве документации этот параметр описывается как процент от общей оперативной памяти, но согласно исходным кодам ядра Linux это не так. Глядя на meminfo, параметр dirty_background_ratio расчитывается от величины MemFree + Cached - Mapped. Поэтому для нашей демонстрационной системы 10% составляет немного меньше, чем 250MB, но не 400MB.

Ну и да, SSD - неплохой выход из ситуации, тем более что у вас не такая уже и объёмная база.

Лучше разобраться по какой причине возникает эта ошибка. Советую почитать это http://webmastermix.ru/domains-and-hostings/299-oshibka-502-bad-gateway-prichiny-vozniknoveniya-i-sposoby-ustraneniya.html и попробовать найти причину.

Я б ещё посоветовал после всех действий перезапустить сам isp командой `killall ispmgr`

Сентябрь:
location ~ /20 {

return 404;
}

http://nginx.org/ru/docs/http/ngx_http_core_module.html#location


Это для вас, программистов, нечего лазать в настройки.
А для нас, админов, самое то.

Нет никакой разница кем человек является. Есть задача и её нужно решать самыми простыми способами. В вашем примере человеку по каждому чиху придётся писать в саппорт хостинга по всяким мелочам и перезапускать веб-сервер (ну или reload'ить). Зачем, когда можно изменить файлик у себя в хомяке и никого при этом не тревожить? Вы у себя в системе тоже в /etc измнения вносите, или всё же когда это возможно через $HOME конфиги правите?

И да, я сисадмин, если что :)

forest25:
Вставлю свои 5 копеек. Если надвигаются глобальные правки конфигов в /etc, то есть смысл в версионировании файлов:

cd /etc
git init
git add -A
git commit -m "first init"

О да, гит это что-то с чем-то. При работе с текстовыми файлами это, пожалуй, лучшее решение.

Kinekt:
Мне интересно. :) Распишите если не сложно.

Без проблем :)

Первое на что необходимо обратить внимание - на сколько ФС разбит винчестер (`df -h`, `mount`). Если это не только корень (/), то нужно запускать скрипт несколько раз для каждого раздела отдельно.

Допустим, у нас есть /, /home/, /boot. /home можно не трогать, т.к. обновление системы никак на этом каталоге не скажется. Выберем каталог для бекапа, например /home/BACKUP (можно вообще использовать удалённый каталог на другом сервере (ключ `-e ssh`)). Теперь производим бекап:


$ sudo rsync -avx / /home/BACKUP
$ sudo rsync -avx /boot/ /home/BACKUP/boot (не забываем в конце первого аргумента ставить слеш)

Где ключ -a рекомендую использовать всегда, -v - режим отладки, чтобы следить за процессом, -x - не выходить за пределы существующей ФС.

Можно было бы всё сделать без ключа -x и одной командой не обращая внимания на какие разделы разбит винчестер:


rsync -av / /home/BACKUP --exclude /home

Только ни в коем случае не забыть исключить каталог /home аргументом --exclude /home иначе rsync начнёт рекурсивно копировать бекап-бекапов-бекапов-бекапов (ну вы поняли😂) и на диске кончится место.

Кстати, если использовать удалённое хранилище, то можно ещё указать ключ -z для архивации "на лету".

Например нам не понравилось как после обновления ведёт себя система. ВОзвращаем всё до обновления:


$ rsync -av /home/BACKUP/ / --exclude /home --delete-after

Ключ --delete-after необходимо указывать, чтобы заменялись не только существующие файлы в двух каталогах, но и удалялись НОВЫЕ файлы созданные при обновлении, которые нам не нужны. Вообще этот ключ есть смысл использовать всегда. Но если бекап делается первый раз - не обязательно.

Ну вроде всё, если вдруг какие вопросы - спрашивайте :)

---------- Добавлено 03.05.2014 в 12:53 ----------

Кстати, если вдруг у вас есть возможность поднять мне карму, поблагодарив за сообщение, буду благодарен (если на этом форуме такое возможно конечно...а то я даже аваторку не могу поставить) :)

---------- Добавлено 03.05.2014 в 12:55 ----------

И да, запуск rsync можно использовать сколь угодно раз - он будет послушно копировать лишь те файлы, что изменились, при чём происходить это будет почти мгновенно. Очень удобная штука :)

123
Всего: 22