Romka_Kharkov

Romka_Kharkov
Рейтинг
485
Регистрация
08.04.2009
Должность
Хостинг
Качественный хостинг
galkahost:
ssd из-за плохой надежности для ресурса, который активно использует диски я бы не ставил ибо черевато. sas и только sas в рейде то что доктор прописал.

Так не достаточно ему скорости SAS будет , ё мае :) Если у ТС сейчас как он говорит "падает" \ "поднимается", значит уже SATA закончилось (при условии конечно, что проблема в этом)... Поставит он SAS , текущая ситуация разрулится, а через полгода когда посещаемость еще возрастет? ТС станет перед тем же вопросом только уже имея SAS диски, что будете предлагать тогда? + У него контента количество возрастет за это время до 100 GB что в штатные SSD вовсе не влезет. Тут нужна легко масштабируемая схема, а апгрейд железа это далеко не масштабирование :) к решению как таковому не приводит....

medpages:
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda1 942710112 64160532 831039756 8% /

64 Gb used ? Так это может и на SSD влезть. Кстати в случае такого мелкого количества контента , актуальный контент для кеширования это наверное гигабайт 10 от силы... :) Можно вообще в память закладывать, тут кто-то на форуме описывал работу базы данных из ramfs :) Так что надо разобраться, если проблема в дисковых i/o то тогда перехода не миновать, ибо SATA 2 достиг своего лимита. Но опять же, можно снизить i/o на сервер путем добавления еще одного нового, сейчас SAS на сколько я понимаю самые быстрые носители? но они дадут всего +100% прироста, согласно скорости 7.200 и 14.ххх.... ну допустим сайт сможет обслужить не 2.5k а 5k сессий..... а что потом? круче SAS (по скорости) на сколько я понимаю только SSD диски, а они однако не дешево стоят. И кстати не совсем мне понятно, зачем заказывать массив 1 TRB при условии использования менее 10% от общего массива (а именно 64 GB ) или у вас послезавтра еще +64 GB планируется? :) Я думаю что этот запас в данном случае есть избытком который для хорошей схемы недопустим.

medpages:

Raid: Raid1 LSI 3WARE

Работал когда-то с такими чудо контроллерами :) Бесценный опыт :D

Какой серии контролер используете?

zexis:
Не озвучите количество кликов на сайте в сутки?
Есть аналогичный проект с 2 миллионами кликов в сутки.
Трафик 8 Тб в месяц.
Отлично работает на 2-х процессорном xeon-5650. Порт 100 мбит.
Load average максимум 0,9
Трафик в пиках до 50 мбит.

А то не капча у вас?:)

Romka_Kharkov добавил 21.03.2011 в 20:05

medpages:
нужно арендовать

Обратитесь к оператору в ICQ , готовы обсудить варианты, а так же проанализировать вашу систему.

medpages:
до 1000$, если с FC нужно предлагать

В пределах вашего бюджета вполне можем предложить интересные варианты построения фермы, вы смотрели пример который я цитировал выше?

P.S: Вы хотите за 1000$ купить решение или арендовать за ~1000$ / месяц?:)

medpages:
да щас стоит SATA II, если не FC, то можно этим решить проблему: Сетевое хранилище данных NAS4000, HDD 2 x 2000 GB, 1Gbit, трафик 5Tb, RAID 0 или 1

Или нужно хотя бы SAS, iSCSI

NAS4000 Обслуживает 2 винта по (7200 RPM).... че-то не уловил смысл замены? :) или туда SCSI / SAS можно включать?

'[umka:
;8700940']
Если кеширование не решит проблему (а при таких объёмах, вряд ли решит).

При каких объемах??? Я на ферме из 6 серверов (3 чисто под кеш) + (3 чисто под "картинки") выдавливал более 500 Mb/s нагрузки.... и при этом имел что-то около < 10k конектов.. Понять бы , сколько тут 1 сервер отдает... Ах да, это было на SATA I кажется в то время еще... Хотя на кешах стояли SCSI...

medpages:
что значит i/o wait проблема?

2,5k * 5Мб в секунду отдает сервер, и в чем это может проявляться, раз канал не забивается, памяти хватает, "процессор" не забит, получается или винты и тем самым обмен данными на отдачу, собственно FC кажется решит все это, рассудите меня профи, я сам не особо в тех нюансах этих разбираюсь

Ну во первых если бы ваш сервер отдавал по 5 Mb/s на каждую сессию :) то 1 GB включение закончилось бы на 200 подключениях, а соответственно для достижения 2.5 сессий надо было бы в 12.5 раз увеличивать канал, по этому ваш подсчет я как тех. специалист считаю не верным в корне (именно по этому хотел взглянуть на графики загрузки канала). А так же я вот сейчас подумал, может быть вы ищите Fibre (Optic) Channel для винтов? а не для сети и мы тут все не совсем верно вас поняли... ? Я бы предложил вам распределить вашу нагрузку... на еще 1 такой же сервер (в сумме что бы было два) и все будет вполне отлично + отказоустойчивость повысится. :) Для кеш серверов (при небольших объемах актуальных данных) можно использовать SSD либо ramfs.

galkahost:
А может дело в том, что сата диски обсираются картинки то дергать с такой скоростью?

Ну так это и есть i/o wait ;) в данном случае :) В приведенной выше схеме работа с кеш серверами есть, т.е с бекендов дергается только то, чего нет в кеше ... :) При нормальном количестве памяти и скоростных дисках на бекендах достигали отдачу ~600 Mb/s.

eServer.ru:
503 или 504 - это же уже ответ сервера, т.е. запрос отработан фронтендом. Имхо у Вас проблема в производительности сервера или настройках бэкенда.

Я думаю что там i/o wait проблема, при условии что ТС знает слова "сервер оптимизирован" :)

Однако 2,5k показов картинок, это по взрослому.

Всего: 6838