cvss

Рейтинг
69
Регистрация
06.10.2009
QuickAurum:
Если это было интересно нормальным участникам форума или нашим клиентам, то я мог бы получить нормальный бюджет на это и провести исследование по статье "маркетинг".

Прогнать unixbench можно и без бюджета ;), хотя ценность его как теста очень низка - уж очень он синтетический, оторван от реальной жизни.

Но чтобы закрыть тему "тормозов диска у Xen" и показать с цифрами, что тормозов нет, вот результаты unixbench на одной и той же машине, на одном и том же разделе диска. Native - на физической машине с разрешенным одним ядром и 256 Мб ОЗУ, и Xen PV - на виртуальной машине в режиме PV с одним ядром и 256 Мб ОЗУ.


Native (1 CPU core 2.4 GHz, 256 Mb RAM, 1 SATA HDD Samsung)
===============================================
BYTE UNIX Benchmarks (Version 5.1.2)
OS: GNU/Linux -- 2.6.18-164.6.1.el5 -- #1 SMP Tue Nov 3 16:18:27 EST 2009
Machine: i686 (i386)
CPU 0: Intel(R) Core(TM)2 Quad CPU Q6600 @ 2.40GHz (4788.2 bogomips)
Hyper-Threading, x86-64, MMX, Physical Address Ext, Intel virtualization
------------------------------------------------------------------------
File Copy 1024 bufsize 2000 maxblocks 3960.0 529094.5 1336.1
File Copy 256 bufsize 500 maxblocks 1655.0 153098.5 925.1
File Copy 4096 bufsize 8000 maxblocks 5800.0 1208281.0 2083.2

Xen PV (1 CPU core 2.4 GHz, 256 Mb RAM, 1 SATA HDD Samsung)
===============================================
BYTE UNIX Benchmarks (Version 5.1.2)
OS: GNU/Linux -- 2.6.18-164.el5xen -- #1 SMP Thu Sep 3 04:47:32 EDT 2009
Machine: i686 (i386)
CPU 0: Intel(R) Core(TM)2 Quad CPU Q6600 @ 2.40GHz (5986.8 bogomips)
Hyper-Threading, MMX, Physical Address Ext
------------------------------------------------------------------------
File Copy 1024 bufsize 2000 maxblocks 3960.0 542862.3 1370.9
File Copy 256 bufsize 500 maxblocks 1655.0 153684.5 928.6
File Copy 4096 bufsize 8000 maxblocks 5800.0 1212533.2 2090.6

Жирным текстом выделены итоговые числа - чем больше, тем лучше. Видно, что на физическом железе, и в виртуальной машине, числа почти равны, в виртуальной машине даже немного больше. Казалось бы, нарушение закона сохранения энергии, но объясняется просто - небольшую часть нагрузки (доли процента) принимается на себя подсистема ввода-вывода, которая находится снаружи виртуальной машины и выполняется на другом ядре.

А можно посмотреть на результат нормальной, реальной задачи. Упаковка в tar исходников ядра линукса - задача с интенсивным чтением диска. Суммарный размер - около 320 Мб, больше 24 тыс. файлов. Перед упаковкой дисковый кэш сбрасывался через vm.drop_caches.


Native
$ time (find linux-2.6.26 | cpio -o > /dev/null)
530862 blocks

real 0m30.247s
user 0m0.605s
sys 0m2.411s

Xen PV
$ time (find linux-2.6.26 | cpio -o > /dev/null)
530862 blocks

real 0m32.396s
user 0m0.052s
sys 0m0.120s

Разница во времени - чуть меньше 7%, достаточно обычный оверхед на виртуализацию.

broken:
Все ваши посты на этом форуме, хорошее предупреждение будщим вашим клиентами, что если главный инженер клоун - то чего уж ждать.

Вы ни на один технический вопрос не ответили , постоянные сливы про то что клиент виноват. Вам счас человек в нос сунул тикет после которого он переехал от вас. Вы кроме как по форумам языком чесать, что то можете? Или главный инженер вместо того чтобы признать да был косяк, начинает
человека клоном выставлять.

Вообще Ваше место в серверной, идите и жуйте носки, а пеар по форумам оставьте менеджерам. У них это лучше получается.

Наши ошибки мы признаем. Если они приводят к нарушению SLA, мы всегда предоставляем компенсацию. Последний раз масштабная проблема была в сентябре - авария на одном из узлов SAN, устранение которой потребовало несколько часов. Авария затронула более 50 виртуальных серверов, хотя многие аварию даже не заметили. Всем была начислена компенсация в виде 1 месяца бесплатного хостинга.

В случае с broken, постоянная проблема была именно у него - по действующему тарифному плану ресурсов не хватало, а переходить на следующий тариф и платить больше владелец не хотел. Разумный человек из всей этой истории увидит то, что нам просто не повезло иметь дело с broken, с этим единственным клиентом, который теперь в иррациональной ненависти флудит при упоминании TrueVDS и не брезгует ложью, личными оскорблениями и разговорами самого с собой под маской виртуала.

broken, опускаться на ваш уровень до взаимных оскорблений не хочу, а продолжать вежливо разговаривать с вами не теряя собственного достоинства уже не вижу возможности. Поэтому впредь постараюсь вас игнорировать. Вам предлагаю начать тратить свое время на что-нибудь полезное и позитивное, и воздерживаться от участия в этой теме и комментирования сообщений, связанных со мной или TrueVDS.

На технические вопросы от других участников форума отвечаю и продолжу отвечать с удовольствием. Могу рассказать и про ребилды RAID, если это кого-нибудь и в самом деле интересует.

broken:
cvss, и что? да, я посоветовал человеку взять впс у трувдсов. это не значит что он мой клон, не тупите сударь. посмотрите данные на кого были аккаунты зарегистрированы.

Понимаю, что на поставленные вопросы вам отвечать не удобно и вы их обходите стороной или противоречите сами себе. Но не стоит переходите на оскорбления, здесь не детский сад.

У меня еще возникло предположение, почему вы столько много энергии тратите на ненависть к нам. Это отличное предупреждением новому хостеру о том, что его ожидает, если вдруг на ноде появятся еще тяжелые клиенты и ваш VDS начнет тормозить :).

broken:
cvss, вы клинический ктулху?

припишите мне еще 5 и 6 заказ. фантазии у вас не занимать.:) теперь каждый кто обратится с проблемой будет моим клоном? :)

Зачем что-то приписывать мне? Вы сами мне в сентябре писали: "на пару дней переносил на второй свой впс(1969)". Этот же номер присутсвует в переписке uborshica.

Выбирайте сами, когда вы солгали - тогда или сейчас.

broken:
cvss, а если окажется что это не клон? вы готовы съесть свой галстук или хотя бы носки?

Я приведу факты:

1. В суппорт TrueVDS приходит тикет по поводу тормозов диска на втором заказе, принадлежащем broken.

2. Вскоре после тикета, это же самое сообщение здесь на форуме пишет uborshica.

3. broken и uborshica мило беседуют на форуме как незнакомые люди.

У меня напрашивается вывод - у broken раздвоение личности :). А какая у вас версия?

uborshica:

Товарищи с ТруВдс.. Сколько такой геморрой продолжаться будет у вас с дисковой системой. И месяца не прошло с момента вашей дисковой оптимизации, как опять начались тормоза с загрузкой под 100%, причем у меня сервер с минимальной нагрузкой работает. А тормозит просто жуть.

atop:
DSK | xvda | busy 100% | read 0 | write 25 | avio 400 ms |
DSK | xvda | busy 87% | read 1 | write 13 | avio 619 ms |
...

Видимо, 2 калеки в онлайне и то тупит все ...

broken, вы, наверное,еще долго будете черной тенью кружить возле любого упоминания TrueVDS. И, хотя это приносит дискомфорт, к этому можно отнестить с пониманием - понятно, что на всех не угодишь. Яркий источник негативных отзывов, проблема которого заключалась лишь в желании получить ресурсов больше, чем за них заплачено - тоже вполне нормальное явление ;).

Но то, зачем вы здесь завели виртуала uborshica и стали переписываться сами с собой, я уже понять не могу. Чтобы не было слишком одиноко в священной войне?

Andreyka:
В том то и дело, что проверял на практике айскази - и через софт и через карту (qlogic) - оба варианта не фонтан

Чаще всего, узким местом оказываются контроллеры дисковых массивов, может быть у вас модель оказалась неудачная. Но там кроме него есть много компонентов цепочки, каждый из которых может сильно повлиять на производительность в целом. Не возьмусь угадывать, что в вашем случае могло быть не так.

seocore:
какое интересное решение, где-то я его уже видел 🚬

Я тоже видел, было приятно встретить грамотный подход 🍻


ну как бы среднее время доступа по SSD ниже 1 мс, а сеть добавит к этому числу еще 2 мс, т.е. по сути дела в 2 раза ухудшится производительность 🚬

У нас латентность сети к iSCSI-storage - 0.06 мс, латентность SSD - 0.4 мс. По сравнению с прямым доступом, конечно, есть задержка, но по сравнению латентностью HDD - будь то SATA или SAS - она мизерная. Через SAN SSD на реальных задачах в 30 раз быстрее, локально - в 35-40 раз.


это не частота, это % доля от процессора, отображаемая для "упрощения" в виде МГц...

Да, все верно.


на деле - если пара юзеров будут долбить процессор какими-нить экзотическими вещами, которые начисто исключают возможности L1 кеша инструкций, то деградация производительности будет и для соседних юзеров...

Не совсем так. L1 и так при любом переключении контекста почти полностью очищается. L2, L3 - да, их можно вымыть и замедлить соседа процентов на 5-10. Хотя в реальности это встречается не часто, на этот случай мы даем всем виртуальным машинам на 7% больше процессора, чем указано в спецификации.

cvss добавил 23.10.2009 в 18:20

Andreyka:
Да? Через обычную сетевуху да еще с оверхедом по айскази? Ну-ну 🚬

Ясно, вы представляете только в теории и где-то ошибаетесь. На практике - все нормально, ничего не убивается.

Andreyka:
Какой смысл выделять SSD диск для VPS, если скорость убивается канальным подключением?

Скорость не убивается. Если бы убивалась, конечно, смысла не было бы.

А как вы пришли к такому мнению? Вероятно, где-то в выводе ошибка.

Andreyka:
Ну тогда какой в этом смысл, если даже на хайенд идет обычный FC, который дает 4Gbps?

О том, для чего нужен SAN, у нас написано в описании системы. Про SAN вообще, в популярной форме хорошо написано на Википедии: на английском и на русском. В разделе Benefits (Преимущества) описаны и другие полезные функции, которые она дает.

Andreyka:
А айскази (яшамашедший) - через интерфейс или софтварно?

Все работает через интерфейсы и поддерживается софтварно. Переформулируйте, пожалуйста, вопрос яснее.

Всего: 132