- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет.
Есть сервер на CentOS 5-й ветки, ядро самое актуальное - 2.6.18-274.3.1
Ни с того ни с сего сервер стал сам перезагружаться без каких-либо сообщений в логах. В sysctl стоит kernel.panic = 10, поэтому сервер становится доступным после перезагрузки.
В IPKVM консоль смотреть 24 часа в сутки, понятное дело, не получится, чтобы выследить что идет в консоль.
Каким образом можно отследить проблему и что вызывает kernel panic? Может какие-то дампы и проч?
Спасибо.
Если железо серверное, то там может быть реализовано MCE. Так что можно поставить mcelog и анализировать. Этот лог не обязан содержать сообщения, но бывает помогает.
Гнездо у них на kernel.org, но сегодня он опять лежит.
Можно перенаправить все сообщения ядра на другой компьютер в сети http://www.tocpcs.com/howto-log-a-kernel-panic-it-can-be-done/
Вот удалось через netconsole сохранить логи kernel panic`а.
Из-за чего такое происходит?
Oct 4 16:46:00 server Unable to handle kernel NULL pointer dereference
Oct 4 16:46:00 server at 00000000000003c8 RIP:
Oct 4 16:46:00 server [<ffffffff88652383>] :bridge:__br_deliver+0xcd/0xfb
Oct 4 16:46:00 server PGD 1a8bd067
Oct 4 16:46:00 server PUD 132e9067
Oct 4 16:46:00 server PMD 0
Oct 4 16:46:00 server
Oct 4 16:46:00 server Oops: 0000 [1]
Oct 4 16:46:00 server SMP
Oct 4 16:46:00 server
Oct 4 16:46:00 server last sysfs file: /devices/xen-backend/vbd-2-768/statistics/wr_sect
Oct 4 16:46:00 server CPU 1
Oct 4 16:46:00 server
Oct 4 16:46:00 server Modules linked in:
Oct 4 16:46:00 server netconsole
Oct 4 16:46:00 server ebtable_filter
Oct 4 16:46:00 server ebtables
Oct 4 16:46:00 server tun
Oct 4 16:46:00 server bridge
Oct 4 16:46:00 server netloop
Oct 4 16:46:00 server netbk
Oct 4 16:46:00 server blktap
Oct 4 16:46:00 server blkbk
Oct 4 16:46:00 server ipt_REDIRECT
Oct 4 16:46:00 server ipt_owner
Oct 4 16:46:00 server ip_nat_ftp
Oct 4 16:46:00 server ip_conntrack_ftp
Oct 4 16:46:00 server xt_state
Oct 4 16:46:00 server xt_length
Oct 4 16:46:00 server ipt_ttl
Oct 4 16:46:00 server xt_tcpmss
Oct 4 16:46:00 server ipt_TCPMSS
Oct 4 16:46:00 server xt_multiport
Oct 4 16:46:00 server xt_limit
Oct 4 16:46:00 server ipt_LOG
Oct 4 16:46:00 server ipt_TOS
Oct 4 16:46:00 server ipt_tos
Oct 4 16:46:00 server ipt_REJECT
Oct 4 16:46:00 server iptable_filter
Oct 4 16:46:00 server iptable_nat
Oct 4 16:46:00 server ip_nat
Oct 4 16:46:00 server ip_conntrack
Oct 4 16:46:00 server nfnetlink
Oct 4 16:46:00 server ip_tables
Oct 4 16:46:00 server x_tables
Oct 4 16:46:00 server loop
Oct 4 16:46:00 server dm_mirror
Oct 4 16:46:00 server dm_multipath
Oct 4 16:46:00 server scsi_dh
Oct 4 16:46:00 server video
Oct 4 16:46:00 server backlight
Oct 4 16:46:00 server sbs
Oct 4 16:46:01 server power_meter
Oct 4 16:46:01 server hwmon
Oct 4 16:46:01 server i2c_ec
Oct 4 16:46:01 server dell_wmi
Oct 4 16:46:01 server wmi
Oct 4 16:46:01 server button
Oct 4 16:46:01 server battery
Oct 4 16:46:01 server asus_acpi
Oct 4 16:46:01 server ac
Oct 4 16:46:01 server parport_pc
Oct 4 16:46:01 server lp
Oct 4 16:46:01 server parport
Oct 4 16:46:01 server sr_mod
Oct 4 16:46:01 server cdrom
Oct 4 16:46:01 server sg
Oct 4 16:46:01 server snd_hda_intel
Oct 4 16:46:01 server snd_seq_dummy
Oct 4 16:46:01 server snd_seq_oss
Oct 4 16:46:01 server snd_seq_midi_event
Oct 4 16:46:01 server snd_seq
Oct 4 16:46:01 server snd_seq_device
Oct 4 16:46:01 server snd_pcm_oss
Oct 4 16:46:01 server snd_mixer_oss
Oct 4 16:46:01 server snd_pcm
Oct 4 16:46:01 server snd_timer
Oct 4 16:46:01 server snd_page_alloc
Oct 4 16:46:01 server tpm_tis
Oct 4 16:46:01 server snd_hwdep
Oct 4 16:46:01 server i2c_i801
Oct 4 16:46:01 server snd
Oct 4 16:46:01 server e1000e
Oct 4 16:46:01 server tpm
Oct 4 16:46:01 server serial_core
Oct 4 16:46:01 server soundcore
Oct 4 16:46:01 server i2c_core
Oct 4 16:46:01 server pcspkr
Oct 4 16:46:01 server serio_raw
Oct 4 16:46:01 server tpm_bios
Oct 4 16:46:01 server dm_raid45
Oct 4 16:46:01 server dm_message
Oct 4 16:46:01 server dm_region_hash
Oct 4 16:46:01 server dm_log
Oct 4 16:46:01 server dm_mod
Oct 4 16:46:01 server dm_mem_cache
Oct 4 16:46:01 server ahci
Oct 4 16:46:01 server libata
Oct 4 16:46:01 server shpchp
Oct 4 16:46:01 server megaraid_sas
Oct 4 16:46:01 server sd_mod
Oct 4 16:46:01 server scsi_mod
Oct 4 16:46:01 server ext3
Oct 4 16:46:01 server jbd
Oct 4 16:46:01 server uhci_hcd
Oct 4 16:46:01 server ohci_hcd
Oct 4 16:46:01 server ehci_hcd
Oct 4 16:46:01 server
Oct 4 16:46:01 server Pid: 26388, comm: qemu-dm Not tainted 2.6.18-274.3.1.el5xen #1
Oct 4 16:46:01 server RIP: e030:[<ffffffff88652383>]
Oct 4 16:46:01 server [<ffffffff88652383>] :bridge:__br_deliver+0xcd/0xfb
Oct 4 16:46:01 server RSP: e02b:ffff8800065d3b18 EFLAGS: 00010296
Oct 4 16:46:01 server RAX: 0000000000000000 RBX: ffff880034831000 RCX: ffff880009b95bc0
Oct 4 16:46:01 server RDX: ffffffff80000000 RSI: ffff880009b95bc0 RDI: ffff88003846be00
Oct 4 16:46:01 server RBP: ffff880037dfa500 R08: 0000000002000000 R09: ffffffff88652195
Oct 4 16:46:01 server R10: 0000000080000000 R11: ffffffff8853f9c0 R12: ffff880009b95c18
Oct 4 16:46:01 server R13: ffffffff80567f00 R14: ffff880037dfa000 R15: 0000000000000000
Oct 4 16:46:01 server FS: 00002ba775bc9bf0(0000) GS:ffffffff8062e080(0000) knlGS:0000000000000000
Oct 4 16:46:01 server CS: e033 DS: 0000 ES: 0000
Oct 4 16:46:01 server Process qemu-dm (pid: 26388, threadinfo ffff88003e064000, task ffff88001b614080)
Oct 4 16:46:01 server Stack:
Oct 4 16:46:01 server ffff880009b95bc0
Oct 4 16:46:01 server ffff880009b95bc0
Oct 4 16:46:01 server ffff880037dfa500
Oct 4 16:46:01 server ffffffff88651294
Oct 4 16:46:01 server
Oct 4 16:46:01 server ffff88001df131c0
Oct 4 16:46:01 server ffff880009b95bc0
Oct 4 16:46:01 server ffffffff808d3870
Oct 4 16:46:01 server ffffffff80424b93
Oct 4 16:46:01 server
Oct 4 16:46:01 server ffff880033474460
Oct 4 16:46:01 server ffff880009b95bc0
Oct 4 16:46:01 server
Oct 4 16:46:01 server Call Trace:
Oct 4 16:46:01 server <IRQ>
Oct 4 16:46:01 server [<ffffffff88651294>] :bridge:br_dev_xmit+0xc7/0xdb
Oct 4 16:46:01 server [<ffffffff80424b93>] dev_hard_start_xmit+0x1b7/0x28a
Oct 4 16:46:01 server [<ffffffff80230b81>] dev_queue_xmit+0x31f/0x3ef
Oct 4 16:46:01 server [<ffffffff80233073>] ip_output+0x29a/0x2dd
Oct 4 16:46:01 server [<ffffffff80441cb7>] ip_forward+0x24f/0x2bd
Oct 4 16:46:01 server [<ffffffff80236cdc>] ip_rcv+0x539/0x57c
Oct 4 16:46:01 server [<ffffffff80221590>] netif_receive_skb+0x495/0x4c4
Oct 4 16:46:01 server [<ffffffff88652efd>] :bridge:br_handle_frame_finish+0x1bc/0x1d3
Oct 4 16:46:01 server [<ffffffff88657123>] :bridge:br_nf_pre_routing_finish+0x2e9/0x2f8
Oct 4 16:46:02 server [<ffffffff88656e3a>] :bridge:br_nf_pre_routing_finish+0x0/0x2f8
Oct 4 16:46:02 server [<ffffffff80258542>] nf_hook_slow+0x58/0xbc
Oct 4 16:46:02 server [<ffffffff88656e3a>] :bridge:br_nf_pre_routing_finish+0x0/0x2f8
Oct 4 16:46:02 server [<ffffffff8028829d>] find_busiest_group+0x1db/0x44a
Oct 4 16:46:02 server [<ffffffff88657d20>] :bridge:br_nf_pre_routing+0x600/0x61c
Oct 4 16:46:02 server [<ffffffff802352d4>] nf_iterate+0x41/0x7d
Oct 4 16:46:02 server [<ffffffff88652d41>] :bridge:br_handle_frame_finish+0x0/0x1d3
Oct 4 16:46:02 server [<ffffffff80258542>] nf_hook_slow+0x58/0xbc
Oct 4 16:46:02 server [<ffffffff88652d41>] :bridge:br_handle_frame_finish+0x0/0x1d3
Oct 4 16:46:02 server [<ffffffff88653082>] :bridge:br_handle_frame+0x16e/0x1a4
Oct 4 16:46:02 server [<ffffffff802214a3>] netif_receive_skb+0x3a8/0x4c4
Oct 4 16:46:02 server [<ffffffff802488d3>] try_to_wake_up+0x392/0x3a4
Oct 4 16:46:02 server [<ffffffff802319a4>] process_backlog+0x9b/0x104
Oct 4 16:46:02 server [<ffffffff8020d0a1>] net_rx_action+0xb4/0x1c6
Oct 4 16:46:02 server [<ffffffff80212f06>] __do_softirq+0x8d/0x13b
Oct 4 16:46:02 server [<ffffffff8025fda4>] call_softirq+0x1c/0x278
Oct 4 16:46:02 server <EOI>
Oct 4 16:46:02 server [<ffffffff8026db69>] do_softirq+0x31/0x90
Oct 4 16:46:02 server [<ffffffff8024fc30>] netif_rx_ni+0x19/0x1d
Oct 4 16:46:02 server [<ffffffff8866d51d>] :tun:tun_chr_writev+0x3b4/0x402
Oct 4 16:46:02 server [<ffffffff8020bf28>] free_hot_cold_page+0x133/0x175
Oct 4 16:46:02 server [<ffffffff8866d585>] :tun:tun_chr_write+0x1a/0x1f
Oct 4 16:46:02 server [<ffffffff8021747d>] vfs_write+0xce/0x174
Oct 4 16:46:02 server [<ffffffff80217cc6>] sys_write+0x45/0x6e
Oct 4 16:46:02 server [<ffffffff8025f106>] system_call+0x86/0x8b
Oct 4 16:46:02 server [<ffffffff8025f080>] system_call+0x0/0x8b
Oct 4 16:46:02 server
Oct 4 16:46:02 server
Oct 4 16:46:02 server Code:
Oct 4 16:46:02 server 48
Oct 4 16:46:02 server 8b
Oct 4 16:46:02 server 80
Oct 4 16:46:02 server c8
Oct 4 16:46:02 server 03
Oct 4 16:46:02 server 00
Oct 4 16:46:02 server 00
Oct 4 16:46:02 server 48
Oct 4 16:46:02 server 85
Oct 4 16:46:02 server c0
Oct 4 16:46:02 server 74
Oct 4 16:46:02 server 1e
Oct 4 16:46:02 server 48
Oct 4 16:46:02 server 8b
Oct 4 16:46:02 server 50
Oct 4 16:46:02 server 38
Oct 4 16:46:02 server 48
Oct 4 16:46:02 server 8b
Oct 4 16:46:02 server 45
Oct 4 16:46:02 server 18
Oct 4 16:46:02 server
Oct 4 16:46:02 server RIP
Oct 4 16:46:02 server [<ffffffff88652383>] :bridge:__br_deliver+0xcd/0xfb
Oct 4 16:46:02 server RSP <ffff8800065d3b18>
Oct 4 16:46:02 server CR2: 00000000000003c8
Oct 4 16:46:02 server
Oct 4 16:46:02 server Kernel panic - not syncing: Fatal exception
Oct 4 16:46:02 server
Сервер это виртуалкам под xen?
Сервер это виртуалкам под xen?
Ага.
# xm info :
release : 2.6.18-274.3.1.el5xen
version : #1 SMP Tue Sep 6 20:57:11 EDT 2011
machine : x86_64
nr_cpus : 8
nr_nodes : 1
cores_per_socket : 4
threads_per_core : 2
cpu_mhz : 2533
hw_caps : bfebfbff:28100800:00000000:00000340:0098e3fd:00000000:00000001:00000000
virt_caps : hvm
total_memory : 32759
free_memory : 16822
node_to_cpu : node0:0-7
node_to_memory : node0:16822
xen_major : 3
xen_minor : 4
xen_extra : .3
xen_caps : xen-3.0-x86_64 xen-3.0-x86_32p hvm-3.0-x86_32 hvm-3.0-x86_32p hvm-3.0-x86_64
xen_scheduler : credit
xen_pagesize : 4096
platform_params : virt_start=0xffff800000000000
xen_changeset : unavailable
cc_compiler : gcc version 4.1.2 20080704 (Red Hat 4.1.2-50)
cc_compile_by : root
cc_compile_domain : gitco.tld
cc_compile_date : Sun Jun 19 13:52:00 CEST 2011
xend_config_format : 4
Moskovitter добавил 05.10.2011 в 01:13
Выплачу $1000 за решение проблемы или за мысль, которая натолкнет на ее решение.
Админы, проявите ж себя!
Ага.
# xm info :
release : 2.6.18-274.3.1.el5xen
version : #1 SMP Tue Sep 6 20:57:11 EDT 2011
machine : x86_64
nr_cpus : 8
nr_nodes : 1
cores_per_socket : 4
threads_per_core : 2
cpu_mhz : 2533
hw_caps : bfebfbff:28100800:00000000:00000340:0098e3fd:00000000:00000001:00000000
virt_caps : hvm
total_memory : 32759
free_memory : 16822
node_to_cpu : node0:0-7
node_to_memory : node0:16822
xen_major : 3
xen_minor : 4
xen_extra : .3
xen_caps : xen-3.0-x86_64 xen-3.0-x86_32p hvm-3.0-x86_32 hvm-3.0-x86_32p hvm-3.0-x86_64
xen_scheduler : credit
xen_pagesize : 4096
platform_params : virt_start=0xffff800000000000
xen_changeset : unavailable
cc_compiler : gcc version 4.1.2 20080704 (Red Hat 4.1.2-50)
cc_compile_by : root
cc_compile_domain : gitco.tld
cc_compile_date : Sun Jun 19 13:52:00 CEST 2011
xend_config_format : 4
Moskovitter добавил 05.10.2011 в 01:13
Выплачу $1000 за решение проблемы или за мысль, которая натолкнет на ее решение.
Админы, проявите ж себя!
Насчет 1000$ не шутите? =)
Xen как устанавливали? Ядро более свежее накатывать пробовали?
Я могу ошибаться, но попробовал бы накатить свежее ядро + свежие bridge-utils
Если эти варианты не помогут в решении проблемы - то стоит обновить xen до версии 4.1. Соответствующие репозитории для CentOS гуглятся на раз.
Более детализированную информацию об установленном софте. У меня подозрение, что внутри виртуалки или где-то рядом запущен Vbox. Так же список загружаемых модулей дайте. Собственно говоря, это известная проблема. Если хотите чтобы решили быстро - постучитесь в ICQ (вникать всё равно придётся). Так же ничего не ясно о панели управления виртуалками (там Солус, Менеджер, Хипер?). Ну и частоту перезагрузок я тоже не уяснил. А, ещё следует посмотреть на размер логов (возможно, и скорее всего, они там диких размеров).
Raistlin добавил 05.10.2011 в 05:50
то стоит обновить xen до версии 4.1
Ещё бы знатЬ, что на этом сервер запущено. Я бы был по осторожнее с такими обновлениями. Возможно, более простым решением будет даунгрейд ядра, так как фиксов безопасности в этой версии ядра, насколько мне известно, нет.
Более детализированную информацию об установленном софте. У меня подозрение, что внутри виртуалки или где-то рядом запущен Vbox. Так же список загружаемых модулей дайте. Собственно говоря, это известная проблема.
Кто ж Vbox ставит в окружении ксена? 😮
Ещё бы знатЬ, что на этом сервер запущено. Я бы был по осторожнее с такими обновлениями. Возможно, более простым решением будет даунгрейд ядра, так как фиксов безопасности в этой версии ядра, насколько мне известно, нет.
В общем случае, конечно, придется поработать напильником после обновления....
Кто ж Vbox ставит в окружении ксена?
Есть такие деятели. Кстати, он мог быть установлен как зависимость какого-нибудь софта, здесь больше похоже на кривой модуль ядра.
Raistlin добавил 05.10.2011 в 06:26
P.S> у виртуалки крышу сносит из-за какого-то необычного трафика или поведения оборудования. Поэтому надо бы поглядеть ещё и саму ноду.
Raistlin добавил 05.10.2011 в 06:28
P.P.S а вот и бага нашлась:
https://bugzilla.redhat.com/show_bug.cgi?format=multiple&id=715306
Есть такие деятели. Кстати, он мог быть установлен как зависимость какого-нибудь софта, здесь больше похоже на кривой модуль ядра.
Raistlin добавил 05.10.2011 в 06:26
P.S> у виртуалки крышу сносит из-за какого-то необычного трафика или поведения оборудования. Поэтому надо бы поглядеть ещё и саму ноду.
Raistlin добавил 05.10.2011 в 06:28
P.P.S а вот и бага нашлась:
https://bugzilla.redhat.com/show_bug.cgi?format=multiple&id=715306
Ты уже получил 1000$?
Andreyka, Я работаю за еду ;). Нет, не получил =). А стоило надеяться? :)