Про атомы я ничего не говорил, с ними не работал - судить не могу, я лишь про тесты и выводы.
Мне даже как-то это комментировать не хочется :/
Одна из наших рабочих машинок, KVM/SAS.
Если методика тестирования одна и та же (алгоритм выбора секторов диска для seek`а фиксирован), то показания будут условно постояннымии. Но это ни в коем случае не говорит о том, что это не постоянная величина, тем более, всегда можно взять среднее значение между худшим вариантом и лучшим и как раз оно будет минимально зависеть от конкретного выбора секторов.
Объясните, на каком основании она не может быть постоянной в случае проведения замеров в одинаковых условиях (одно дисковое устройство) на одинаковой машине с нулевой нагрузкой? Разумеется, про погрешности измерения мы не говорим. И +-30 IOPS за отличия не считаем.
У SATA, SAS и SSD заданных моделей (а также их аггрегаций в виде программных/аппаратных массивов) эта величина вполне себе постоянная и воспроизводимая. Скажу даже больше - у SSD она в тех паспорте часто указана (ну, разумеется, без точности до сотых, а в опредленном - но при этом четко заданном и постоянном - интервале).
fio, например, http://phpsuxx.blogspot.com/2010/10/linux-fio.html По крайне мере результаты совпадают с практикой :)
Pavel.Odintsov добавил 19.05.2011 в 16:45
Почему это IOPS не постоянная? Вполне себе постоянная. Разумеется, при условии отсутствия процессов работающих с диском в момент проведения тестов.
Потому что нечем ему запоминаться, чтобы его вспоминали. Не объективный он, они измеряют линейную скорость жесткого диска. Я вот никогда в своей жизни не видел влияния линейной скорости жесткого диска на скорость работы серверов/vps с сайтами :) Или кто-то часто гоняет файлы размером сотни мегабайт и гигабайт на VPS из папки в папку?
Диск он не оценивает, это заявлено в документации. Оценку с запущенным ПО проиводить некорректно, результаты будут искажены, так ак очередной поисковый бот или обычный посетитель вошедший на сайт нагрузит процессор и как следствие тест получит меньше ресурсов процессора и покажет меньшие значения. Кто хочет относительно реальных (если о реальности в синтетическимх тестах вообще может идти речь) должен погасить все сервисы потребляющие процессор.
Результаты теста при переносе отличаются лишь по той причине, что rsync потребляет и ресурсы процессора в том числе, причем, потребляет весьма серьезно. Это крайне косвенно и о скорости дисковой системы судить не позволяет.
При работе rsync важна не скорость "закачки" (линейная скорость), а скорость произвольного доступа (random access time) и если она низкая, то на мелких файлах (а именно такие они на типичных VPS) скорость никогда выше и не поднимется, так как диск дольше выискивает нужные для копирования блоки, чем их копирует.
А про "упирается в диск" - да, скорее всего, так и есть :)
Да нет и не может быть в этом GeekBench тестов диска, ибо:
Источник: http://itunes.apple.com/us/app/geekbench-2/id409291719?mt=12&ls=1#
Тестировать ресурсы, с которыми на VPS проблем нет почти никогда (оверселл в расчет не берем да и все равно этот тест не поможет даже против него) крайне сомнительно. Иными словами, этот пакет неадекватен и абсолютно не приспособлен к какому-либо тестированию VPS/выделенных машин, которое может претендовать на объективность. Кто купил - выбросил 12 баксов на ветер :)
Мне или кажется или Geekbench "А слона не заметил" ? (с) Иными словами - а где тесты диска-то?