у кого сейчас SSD ?

vitalegkhua
На сайте с 28.03.2012
Offline
85
#41
WapGraf:
OVZ, 2 контейнера.

А, ну если OVZ, тогда да, вопросов нет.

UnixHost Hosting Service (https://unixhost.pro)
[Удален]
#42

Valmon, а вы внимательно почитайте мои посты. Я как раз dd и не советую, а fio.

---------- Добавлено 10.07.2014 в 22:10 ----------

vitalegkhua, ну так отталкиваемся от поста #27 и ваших ответов.

Что там у хостера это только ему и известно, нужно определить. А dd завел нас в тупик.

Andron_buton
На сайте с 19.07.2007
Offline
270
#43
sladkydze:
Не-не, PCI-E у них оказался крайне ненадежным. Подтверждаю.
Говоря про топовые - я имел в виду Векторы, Деневы и прочее eMLC хозяйство.

Денева - да, вообще не убиваемая, толи ветор толи вертекс4 был один коробки не рабочий. Но, уже не будет их...

vitalegkhua
На сайте с 28.03.2012
Offline
85
#44
WapGraf:
vitalegkhua, ну так отталкиваемся от поста #27 и ваших ответов.
Что там у хостера это только ему и известно, нужно определить. А dd завел нас в тупик.

Я же не утверждал, что dd дает 100% гарантию, а сказал, что один из признаков SSD это высокая скорость чтения/записи. Клиент само собой не может с виртуального сервера узнать какой тип дисков. Но по скорости можено хотя бы примерно составить представление о дисковой подсистеме.

[Удален]
#45

Я бы сказал иначе. Можно сказать что на ноде не самые "тупые" диски или что нода не сверх нагружена.

И ни о чем более это не говорит.

Может там 24 SATA + SSD кэш, может там SAS, может SSD, а может бюджетный сервер за 80 баксов и 2 контейнера на сервере. Может хватит "ванговать" с dd?!

sladkydze
На сайте с 07.12.2012
Offline
243
#46

Подпишусь. Потоковая скорость мало кого интересует. Она важна для совсем уж узкого круга задач. А вот IOPS на случайный доступ - это очень важный параметр. А еще есть латентность, о которой все как-то умалчивают (а зря).

Если 1-я система умеет 3.000 йопсов, но при этом латентность 3мс, а вторая умеет 10.000 йопсов, но латентность у нее от 10мс, то 1-я будет работать ощутимо быстрее. Даже на глаз.

И вот с точки зрения латентности, SSD диски под нагрузкой начинают вести себя "не по рекламным проспектам". В базе, латентность у них очень хорошая, порядка 1мс. А вот если напрячь их хорошо, то задержки вполне могут быть и 50мс, что совсем уж неприемлемо. Зачастую, в данном случае они существенно проигрывают многошпиндельным массивам на SAS дисках.

Так что все зависит от нагрузки. Если она многопоточная и высокая - обычные "домашние" SSD сольются в унитаз по производительности. Тут нужны либо энтерпрайзные SSD, которые заточены под такую нагрузку, либо многшпиндельные массивы из классических энтерпрайзных дисков + хороший контроллер.

Предлагаю VDS, IaaS, Dedicated. http://riaas.ru (http://riaas.ru)
V
На сайте с 16.03.2009
Offline
133
#47

Вот не помню, что именно прогонял, толи ссд, толи как кеш. Блоки 16 чтобы потоковую скорость посмотреть

[root@h10-g03 ~]# fio --section=randread ~/test

randread: (g=0): rw=read, bs=16K-16K/16K-16K/16K-16K, ioengine=libaio, iodepth=8
fio-2.0.14
Starting 1 process
^Cbs: 1 (f=1): [R] [0.3% done] [532.6M/0K/0K /s] [34.9K/0 /0 iops] [eta 01h:00m:16s]
fio: terminating on signal 2

randread: (groupid=0, jobs=1): err= 0: pid=13060: Tue Feb 4 14:57:57 2014
read : io=2063.2MB, bw=538409KB/s, iops=33650 , runt= 11714msec
slat (usec): min=4 , max=1631 , avg=12.44, stdev= 6.67
clat (usec): min=55 , max=26480 , avg=222.97, stdev=303.21
lat (usec): min=60 , max=26509 , avg=235.74, stdev=302.42
clat percentiles (usec):
| 1.00th=[ 98], 5.00th=[ 113], 10.00th=[ 122], 20.00th=[ 137],
| 30.00th=[ 143], 40.00th=[ 145], 50.00th=[ 145], 60.00th=[ 151],
| 70.00th=[ 157], 80.00th=[ 175], 90.00th=[ 462], 95.00th=[ 548],
| 99.00th=[ 1752], 99.50th=[ 1784], 99.90th=[ 1848], 99.95th=[ 1992],
| 99.99th=[ 8512]
bw (KB/s) : min=507936, max=564608, per=99.94%, avg=538103.39, stdev=12804.13
lat (usec) : 100=1.09%, 250=86.20%, 500=4.61%, 750=5.45%, 1000=0.15%
lat (msec) : 2=2.46%, 4=0.03%, 10=0.01%, 20=0.01%, 50=0.01%
cpu : usr=8.71%, sys=57.20%, ctx=13299, majf=0, minf=0
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=100.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.1%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=394183/w=0/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
READ: io=6159.2MB, aggrb=538409KB/s, minb=538409KB/s, maxb=538409KB/s, mint=11714msec, maxt=11714msec

Disk stats (read/write):
sdb: ios=386056/0, merge=0/0, ticks=50970/0, in_queue=50860, util=98.28%
[root@h10-g03 ~]# fio --section=randwrite ~/test
randwrite: (g=0): rw=write, bs=16K-16K/16K-16K/16K-16K, ioengine=libaio, iodepth=8
fio-2.0.14
Starting 1 process
^Cbs: 1 (f=1): [W] [1.4% done] [0K/515.9M/0K /s] [0 /33.2K/0 iops] [eta 56m:37s]
fio: terminating on signal 2

randwrite: (groupid=0, jobs=1): err= 0: pid=13180: Tue Feb 4 14:58:50 2014
write: io=684528KB, bw=537541KB/s, iops=33596 , runt= 48090msec
slat (usec): min=5 , max=2072 , avg=11.51, stdev= 5.32
clat (usec): min=57 , max=33816 , avg=222.88, stdev=339.40
lat (usec): min=79 , max=33830 , avg=235.37, stdev=339.07
clat percentiles (usec):
| 1.00th=[ 89], 5.00th=[ 113], 10.00th=[ 124], 20.00th=[ 135],
| 30.00th=[ 141], 40.00th=[ 147], 50.00th=[ 151], 60.00th=[ 157],
| 70.00th=[ 165], 80.00th=[ 193], 90.00th=[ 310], 95.00th=[ 588],
| 99.00th=[ 1704], 99.50th=[ 1848], 99.90th=[ 2064], 99.95th=[ 6432],
| 99.99th=[10304]
bw (KB/s) : min=447072, max=943232, per=100.00%, avg=537614.99, stdev=47311.75
lat (usec) : 100=2.42%, 250=84.54%, 500=6.78%, 750=3.24%, 1000=0.67%
lat (msec) : 2=2.18%, 4=0.11%, 10=0.03%, 20=0.02%, 50=0.01%
cpu : usr=12.71%, sys=54.32%, ctx=55771, majf=0, minf=0
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=100.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.1%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=0/w=0/d=1615647, short=r=0/w=0/d=0

Run status group 0 (all jobs):
WRITE: io=25244MB, aggrb=537541KB/s, minb=537541KB/s, maxb=537541KB/s, mint=48090msec, maxt=48090msec

Disk stats (read/write):
sdb: ios=0/1607843, merge=0/0, ticks=0/232610, in_queue=231860, util=99.32%
VPS XEN/512Mb за 120 Руб (http://www.htc-s.ru/vps-hosting.html) / Виртуальный и VPS хостинг с отзывами (/ru/forum/900361) VPS, хостинг (http://horttel.hosting/)
Pavel.Odintsov
На сайте с 13.05.2009
Offline
169
#48
Miha Kuzmin (KMY):
ссд на сервере? нуну

А что не так с SSD для серверов?

---------- Добавлено 11.07.2014 в 10:49 ----------

Фома:
Господа, а как убедиться что VDS на серваке с SSD? А то хостер вроде говорит, а всё равно хочется глазками посмотреть.

Запустите утилиту fio.

Решение по обнаружению DDoS атак для хостинг компаний, дата центров и операторов связи: FastNetMon (https://fastnetmon.com)
Фома
На сайте с 10.11.2006
Offline
600
#49
vitalegkhua:
Я так полагаю, Вы нас имеете ввиду

😂

Спасибо, vitalegkhua, убедили. Я ничего не понял в этих записях, но думаю если бы там был не SSD, Вы бы не стали выкладывать это на всеобщее обозрение в ветке где столпились хостеры. Так что аргумент для меня убедительный 🍻

Аренда апартаментов на Тенерифе (http://las-americas.ru/).
V
На сайте с 16.03.2009
Offline
133
#50
Pavel.Odintsov:

Запустите утилиту fio.

Ну, однозначно все равно не ответит, что это.

Например:

[root@h10-g03 ~]# fio --section=randread ~/test

randread: (g=0): rw=read, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=8
fio-2.0.14
Starting 1 process
^Cbs: 1 (f=1): [R] [0.1% done] [275.3M/0K/0K /s] [70.5K/0 /0 iops] [eta 02h:11m:38s]
fio: terminating on signal 2

randread: (groupid=0, jobs=1): err= 0: pid=12980: Tue Feb 4 14:57:31 2014
read : io=1620.8MB, bw=277536KB/s, iops=69384 , runt= 5980msec
slat (usec): min=4 , max=86 , avg= 6.32, stdev= 2.74
clat (usec): min=27 , max=29842 , avg=104.96, stdev=173.64
lat (usec): min=37 , max=29858 , avg=113.35, stdev=173.61
clat percentiles (usec):
| 1.00th=[ 74], 5.00th=[ 82], 10.00th=[ 87], 20.00th=[ 93],
| 30.00th=[ 96], 40.00th=[ 97], 50.00th=[ 98], 60.00th=[ 99],
| 70.00th=[ 101], 80.00th=[ 104], 90.00th=[ 118], 95.00th=[ 171],
| 99.00th=[ 219], 99.50th=[ 233], 99.90th=[ 274], 99.95th=[ 290],
| 99.99th=[ 1144]
bw (KB/s) : min=249864, max=282048, per=99.88%, avg=277193.45, stdev=10401.32
lat (usec) : 50=0.01%, 100=65.53%, 250=34.23%, 500=0.21%, 750=0.01%
lat (usec) : 1000=0.01%
lat (msec) : 2=0.01%, 20=0.01%, 50=0.01%
cpu : usr=14.89%, sys=79.11%, ctx=7342, majf=0, minf=0
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=100.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.1%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=414917/w=0/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
READ: io=1620.8MB, aggrb=277536KB/s, minb=277536KB/s, maxb=277536KB/s, mint=5980msec, maxt=5980msec

Disk stats (read/write):
sdb: ios=399443/0, merge=0/0, ticks=21000/0, in_queue=20950, util=97.71%

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий