Moskovitter

Рейтинг
86
Регистрация
28.06.2009

В случае с Xen+SolusVM, например, если VPS-ка на Xen PV, то ребут будет происходить мягкий - как будто по shutdown-у. А если же вот Xen HVM, то ребут будет как по питанию.

Так что варианты возможны.

myhand:
Не поверю, конечно.
Блок и сектор - вещи разные.

Вам наука: сперва ман читай, потом команду запускай...

Ну, если мсье извращенец - почему нет? :)

Смотрите-ка, вы написали аж 4 фразы, которые не несут в себе никакого смысла, кроме стеба и издевательств. Не жалко потерянного времени и усилий нажатия кнопочек?

Все равно всем спасибо, что в процессе натолкнули на верный путь.

Спасибо за ответы.

Вы, конечно, не поверите, но проверка смарта и статуса массива выполняется каждые 30 минут. Два диска сбойнули одновременно скорее всего из-за перегрева.

Сейчас сделал

hdparm --write-sector 1927675136 --yes-i-know-what-i-am-doing /dev/sdb

Но меня настораживает, что

hdparm --read-sector 1927675136 /dev/sdb

перед этим не выдавал сообщение об ошибке, а считывал сектор (нули выдавал).

Сообщение из dmesg о блоке - 1927675136 это именно блок с таким номером, его не надо высчитывать исходя из разбивки диска по партициям?

---------- Добавлено 31.05.2012 в 21:25 ----------

...

Да, и еще - если сделать dd с одного диска на другой, а потом поменять физически кабелями их местами - такой вариант прокатит?

То есть делаем dd с /dev/sdb на /dev/sda, выключаем машину, выкидываем диск /dev/sdb, на его место подключаем /dev/sda и грузимся.

---------- Добавлено 31.05.2012 в 21:47 ----------

Похоже, все-таки путаница между блоками и секторами получается.

Ядро выдает: kernel: raid1: sdb: unrecoverable I/O read error for

block 1927675136

hdparm --read-sector 1927675136 /dev/sdb считывает нормально.

Как по номеру блока (1927675136) вычислить сектор для его перезаписи через hdparm?

---------- Добавлено 31.05.2012 в 22:15 ----------

ну и сам себе отвечу...

Прогнал тест smartctl, нашел сбойный блок (через hdparm не читался), перезаписал, запустил ребилд.

Посмотрим.

Andreyka:
Если диски ок, то нужен ребилд aka sync.

А как его принудительно запустить?

ТС молчит, потому что еще сервер не падал в очередной раз. Упадет - ядро откачу, по результатам работы обязательно отпишусь.

Moskovitter добавил 07.10.2011 в 22:08

Еще есть подозрение, что Solus-ы накосячили в релизе 1.8, сейчас вышло обновление:

This release is to patch around the current issues with the EL kernel crashes. Although tests have been positive on our systems it may not solve all issues for every server. Even though these crashes are not isolated to SolusVM powered servers, we have included a script (/scripts/sysfix) on each master/slave that can be run after each kernel update or yum update and will try to remove/patch any system conflicts. Please don't try and run this script on a server that is not powered by SolusVM, it may harm your server. You don't need to run this script if you haven't experienced a crash.
Raistlin:
nano /etc/yum.repos.d/CentOS-Vault.repo

Ага. Спасибо. Напишу по результатам работы.

Ну подскажите тогда уж напоследок, как корректно старое ядро поставить.

Если просто

rpm -i kernel-xen-2.6.18-238.19.1.el5.x86_64.rpm

то

package kernel-xen-2.6.18-274.3.1.el5.x86_64 (which is newer than kernel-xen-2.6.18-238.19.1.el5.x86_64) is already installed

rpm -ivh --replacepkgs, как я понимаю, перезапишет. А вот как рядом поставить? Чтобы два было.

Moskovitter добавил 05.10.2011 в 14:21

Raistlin:
yum list kernel-xen
yum install то, что вам нужно. Устанавливаем наиболее близкую версию ядра. Так же контролируем (во избежание) содержимое menu.lst

Это ожидаемо выдает только ядро из ветки 5.7:

kernel-xen.x86_64 2.6.18-274.3.1.el5 installed

Взял ядро http://vault.centos.org/5.6/updates/x86_64/RPMS/kernel-xen-2.6.18-238.19.1.el5.x86_64.rpm

Посмотрим, что с ним получится.

Raistlin:
nano /boot/grub/menu.lst
поставьте дефолтным предыдущее ядро, с которым работало всё корректно в таком случае.

А предыдущего ядра нет. Пару недель все адекватно работало с текущим, которое было установлено в момент запуска сервера.

Moskovitter добавил 05.10.2011 в 13:54

Zaqwr:
Raistlin, во! естественно что паника это баг ядра, просто мы по разному смотрим на вещи, вы хотите закрыть баг, а мне было бы интересно найти его природу, и я не исключаю, что эта природа идёт из одной и той же виртуалки.

Да, это тоже интересно проверить. Пока у меня на руках только один репорт kernel panic`а и связать pid, который привел к падению с vm-номером виртуалки сейчас уже не получится.

Теперь сделал скрипт, который сохраняет pid-ы виртуалок. Если завалится еще раз - можно будет понять какая именно вызвала панику.

Raistlin:
yum downgrade kernel и дождаться выхода следующего ядра.

Ну что ж, давайте попробуем. На какое откатываться рекомендуете?

И да, # yum downgrade kernel-xen:

Package kernel-xen-2.6.18-274.el5.x86_64 is allowed multiple installs, skipping

Всего: 78