Dimanych

Рейтинг
155
Регистрация
05.06.2007

# <sys.fichiers><pt de montage><type> <options> <dump> <pass>

/dev/sda1 / ext3 errors=remount-ro 0 1

/dev/sda2 /home ext3 defaults 1 2

/dev/sda3 swap swap defaults 0 0

proc /proc proc defaults 0 0

sysfs /sys sysfs defaults 0 0

Кое что проясняется, если я делаю в одной папке где 26тыс файлов

dir /home/user/files/

простой вывод имён файлов, то выводится мгновенно, а если

dir -l /home/user/files/

вывод с подробной инфой, то сразу всё виснет и ничего не выводит

Если я пытаюсь заархивировать эту папку, тоже всё виснет и выводит такие строки:

невозможно запустить stat для файла - фаил не найден, причём выводит название этого файла.

Потом всё висит секунд 10 и выводит сново эту ошибку для другого файла, в момент выдачи ошибки сервер оживает на мгновение )

Что это за ерунда такая, на диске битые места? Диск зацикливаясь на несколько сек пытается прочесть ошибочные фаилы?? Похоже на баг файловой системы при возникновении ошибок на диске.. не должен он так зацикливаться (

PS. таких больших папок у меня много, пока только с одной заметил такой глюк..

Вот такой диск

http://market.yandex.ru/model.xml?hid=91033&modelid=1035963

Проверил скорость

dd if=/dev/sda of=/dev/zero bs=4096 count=$[1024*256]

262144+0 DatensДtze ein

262144+0 DatensДtze aus

1073741824 Bytes (1,1 GB) kopiert, 14,3152 Sekunden, 75,0 MB/s

Температуру выдало 37 градусов, hddtemp значит тоже верно показывает, было ведь 36.

Andreyka, бекап то я забрал.. мне бы причину точную узнать..

сегодня опять чуть всё не подвисло когда было чтение большого числа мелких файлов через пхп(типо крона)...

Andreyka:
2 варианта
1. DMA отвалилось/шлейф плохой
2. Винт сдыхает/перегрет

На винт у меня в первую очередь теперь подозрение так как после рестарта пару мелких файликов пропало, возможно это было при попытки записи в фаил когда диск был перегрет.

Можно ли как то узнать точную проблему без супортов дата центра,

т.е. 1й или 2й пункт и по какую сторону черты?

Поможет ли снижения приоритета? ведь такое только при бекапе или при копировании больших файлов от 5гб, был похожий случай..

PS. может ли быть дополнительной причиной то что при бекапе очень много мелких файликов архивируется? (более миллиона)

PS. hdtemp почему то не меняется, видно нет возможности правильно определить

hddtemp /dev/sda
WARNING: Drive /dev/sda doesn't appear in the database of supported drives
WARNING: But using a common value, it reports something.
WARNING: Note that the temperature shown could be wrong.
WARNING: See --help, --debug and --drivebase options.
WARNING: And don't forget you can add your drive to hddtemp.db
/dev/sda: ST3500320AS &#9472;: 36&#9567;C or &#9567;F

похоже нужно в базу добавить как то этот диск..

да, 2.6. debian etch

при нормальной работе сервера wa у меня достигало не более 30% коротковремено!

тут же оно почти всегда было 100% что недавало работать другим процессам и шел очень тормазил.. LA был естественно за 30.. и это всё в тихую ночь!

Я писал что через минуту всё возобновилось.. но потом опять такая же ерунда уже после завершения бекапа, я поубивал все мной запущенные процессы, nginx php proftpd cron и другие .. это не помогло, было wa100% .. какие процессы могли такое вызвать?

Что мне остовалось делать?? .. перезагрузил сервер, видимо он проверял диск, так как длилась перезагрузка минут 15. После этого всё запустил и сейчас опять работает нормально.

Как с этим бороться? может кто знает как определить чем занимается сервер в этот момент?

Дак а в час пик как выглядит результат команды top с процессами?

и что выдаст

ps aux|grep httpd |wc -l

там уже можно будет предположить где узкое место

kxk:
PILOTDME, Нехватит памяти, файлы под антилич те что скачивают в плане на внешний сервер выкиньте. На этом nginx + php fastcgi + xcache + желательно апгрейд памяти минимум в 2 раза.

Хотите сказать из-за скачки файлов через nginx может памяти нехватить?

А что, с хостинга выгнали? )

32000-48000 хитов в день

Теоретический средний пик будет до 2х хитов в секунду, а расчитывать можно до 10...

nginx + php fastcgi + xcache,

памяти должно хватить, про процесор не уверен.. ДЛЕ не юзал)

Можно проще (возможно)

На старом, в корне сайта

tar -cf home.tar ./

на новом в корне сайта

wget http://oldhomepage.ru/home.tar

tar -xf home.tar

Да не должен он требовать столь оперативы, имхо бред полный)

Может быть дело в том что бэкап был запущен фоном, а шелл закрыт крестиком? )

такие программы отваливаются в течении нескольких минут, так как получают сигнал на самозавершение из-за того что тот кто запустил программу оборвал сессию)

всё же стоит попробовать /public_html/ 777

Всего: 830