Докер

Докер
Рейтинг
23
Регистрация
14.06.2012
loadcore:
Я сделаю тест позже. Сейчас времени 2 часа ночи. Отдыхать тоже надо.
У вас хороший вопрос, отвечу - чего нет, будет.
Так что давайте уже, спокойной ночи.

Я провел тестирование (в связи с тем, что нельзя снимать лимит на VPS для клиентов).

Процессоров сделал два (как у Вас в тарифе).

processor : 0

vendor_id : GenuineIntel

cpu family : 6

model : 42

model name : Intel(R) Xeon(R) CPU E31270 @ 3.40GHz

stepping : 7

cpu MHz : 3392.292

cache size : 8192 KB

fpu : yes

fpu_exception : yes

cpuid level : 13

wp : yes

flags : fpu de tsc msr pae cx8 sep cmov pat clflush mmx fxsr sse sse2 ss ht syscall nx lm constant_tsc rep_good aperfmperf pni pclmulqdq ssse3 cx16 sse4_1 sse4_2 x2apic popcnt avx hypervisor lahf_lm ida arat

bogomips : 6784.58

clflush size : 64

cache_alignment : 64

address sizes : 36 bits physical, 48 bits virtual

power management:

processor : 1

vendor_id : GenuineIntel

cpu family : 6

model : 42

model name : Intel(R) Xeon(R) CPU E31270 @ 3.40GHz

stepping : 7

cpu MHz : 3392.292

cache size : 8192 KB

fpu : yes

fpu_exception : yes

cpuid level : 13

wp : yes

flags : fpu de tsc msr pae cx8 sep cmov pat clflush mmx fxsr sse sse2 ss ht syscall nx lm constant_tsc rep_good aperfmperf pni pclmulqdq ssse3 cx16 sse4_1 sse4_2 x2apic popcnt avx hypervisor lahf_lm ida arat

bogomips : 6784.58

clflush size : 64

cache_alignment : 64

address sizes : 36 bits physical, 48 bits virtual

power management:

Оперативная память:

-bash-4.1# free -m

total used free shared buffers cached

Mem: 2043 330 1713 0 4 157

-/+ buffers/cache: 168 1875

Swap: 0 0 0

-bash-4.1#

Конфиг сервера:

kernel = "/xen/template/CentOS-6-amd64-isp/vmlinuz-2.6.32-5-xen-amd64"

ramdisk = "/xen/template/CentOS-6-amd64-isp/initrd.img-2.6.32-5-xen-amd64"

acpi = 1

apic = 1

name = "vps.docker.ru"

root = "/dev/xvda1 ro"

vif = [ 'ip=91.230.60.172,bridge=eth0,mac=00:16:3E:06:57:21' ]

disk = [ 'phy:/dev/vg800/vps.docker.ru,xvda1,w' ]

vfb = ['type=vnc, vncunused=0, vncdisplay=13, vncpasswd=***']

on_poweroff = 'destroy'

on_reboot = 'restart'

on_crash = 'restart'

serial='pty'

extra='xencons=hvc0'

memory = '2048'

vcpus = '2'

cpu_cap = '100'

ОС: CentOS (x64).

Результаты:

Benchmark Run: Tue Sep 25 2012 05:49:56 - 06:17:48
2 CPUs in system; running 2 parallel copies of tests

Dhrystone 2 using register variables 43597240.5 lps (10.0 s, 7 samples)
Double-Precision Whetstone 4651.5 MWIPS (9.9 s, 7 samples)
Execl Throughput 5940.5 lps (30.0 s, 2 samples)
File Copy 1024 bufsize 2000 maxblocks 465959.7 KBps (30.0 s, 2 samples)
File Copy 256 bufsize 500 maxblocks 185632.5 KBps (30.0 s, 2 samples)
File Copy 4096 bufsize 8000 maxblocks 2063777.0 KBps (30.0 s, 2 samples)
Pipe Throughput 2396034.2 lps (10.0 s, 7 samples)
Pipe-based Context Switching 470222.0 lps (10.0 s, 7 samples)
Process Creation 19316.3 lps (30.0 s, 2 samples)
Shell Scripts (1 concurrent) 7221.8 lpm (60.0 s, 2 samples)
Shell Scripts (8 concurrent) 984.0 lpm (60.0 s, 2 samples)
System Call Overhead 2514410.1 lps (10.0 s, 7 samples)

System Benchmarks Index Values BASELINE RESULT INDEX
Dhrystone 2 using register variables 116700.0 43597240.5 3735.8
Double-Precision Whetstone 55.0 4651.5 845.7
Execl Throughput 43.0 5940.5 1381.5
File Copy 1024 bufsize 2000 maxblocks 3960.0 465959.7 1176.7
File Copy 256 bufsize 500 maxblocks 1655.0 185632.5 1121.6
File Copy 4096 bufsize 8000 maxblocks 5800.0 2063777.0 3558.2
Pipe Throughput 12440.0 2396034.2 1926.1
Pipe-based Context Switching 4000.0 470222.0 1175.6
Process Creation 126.0 19316.3 1533.0
Shell Scripts (1 concurrent) 42.4 7221.8 1703.3
Shell Scripts (8 concurrent) 6.0 984.0 1640.0
System Call Overhead 15000.0 2514410.1 1676.3
========
System Benchmarks Index Score 1622.6

[root@vps UnixBench]#
loadcore:
Мы будем продолжать дискуссии по всему форуму, или вы успокоитесь?

Я, в отличии от Вас не испытываю жгучий "Butthurt", и абсолютно спокойно себя веду.

У моей компании, у наших партнеров, у наших других проектах, очень большое количество клиентов, опыт работы, 100% работа всех сервисов (не путать с серверами, они могут падать, но клиенты это не замечают, потому что мы используем кластерную систему), наличие всех документов, лицензий, своего офиса, своего персонала который работает 24\7, и имеет опыт от 8 лет и выше в хостинг проектах, полностью своего оборудования более чем в трех дата-центрах, и использования собственных решений по системам хранения данных и кластерной системе.

Скажите, у Вас хоть одно из перечисленного мною есть? Кроме как показывать пальцами на тест, где у Вас процессор был установлен как два ядра, Вы больше ничего не можете? Я последний раз предлагаю Вам, получить тестовый пакет, где я выдам такие же ресурсы, как на тестированной Вами системе.

loadcore:
Как будет время потестирую.
Raid у нас как раз Аппаратный. Но вот что у вас за чудо. Вроде Кластер и сас. А работает как черепаха. Зачем тогда писать на сайте туфту про
Незаметно что то

Пожалуйста, тестируйте.

Кластерная система используется для отказоустойчивости и выделения ресурсов, если они нужны (оплачиваются).

Дисковая система SAS на SAN массиве, нужна для того, что бы обеспечить кластерную систему, а так же обеспечить ВСЕ серверы, заявленными и нужными (!) ресурсами для работы.

Когда разговор идет про одну VPS, это один случай, но когда 1000 клиентов, это другой случай, но этот случай к Вам точно не относится, у Вас столько VPS не будет, потому переживать не о чем.

loadcore:
Ага. Ну умрет у нас диск, у всех такое бывает. У вас уже САС не раз дохли,, в этом я уверен.
Для чего тогда зеркало? Вы что тут пытаетесь сказать что RAid 10 не оживить?
Дак как я понял вы же сами его используете 😂

Опять заявления, которые ничем не подтверждены? Еще не один диск SAS не отказал.

Мы используем "железный" RAID10, в отличии от софтового (в котором критический баг, если Вы не знаете), он работает стабильно и выполняет все возложенные на него функции.

Вы в этом уже убедились самостоятельно? Покажите пожалуйста, результаты Вашего тестирования со снятыми лимитами (в пределах разумного), и ай пи который Вы мне отправляли.

loadcore:


Выше клиент тест выложил. Там видно как ваша система работает😂


Там видно, что клиент получил услугу исходя из оплаченного тарифа, со стандартными лимитами.
В Вашем же случае, у Вас лимитов нет, и возможно Вы даже не знаете как их ставить, и зачем они нужны, а я в свою очередь предложил Вам протестировать услугу на двух ядрах, с такой же оперативной памятью, и с повышенным лимитом на скорость и записи дисковой системы.
voooz:
Маленькая кучка ВДСок уйдут в своп и хана вашей ноде. И эти люди называют себя хостерами...

Из за таких "хостеров" потом клиенты пугаются любого шороха.

loadcore:

Реально приведены факты. А Факт это тест. Тут дело Далеко не в ограничениях каких то.
Дела в том что нет тут кластера и нет SAS.

Пожалуйста, приведите факты, на текущий момент Вы пишите только глупости.

Как Вы поняли, что кластерная система не используется? Почему Вы сделали такие выводы? Вы знаете какой тип кластера мы используем? Для чего? Как?

Почему Вы сделали выводы, что система SAN работает не на SAS дисках? Вы сами покупали данное оборудование? Провели тестирование чтения\записи?

🍿

loadcore:
Подождите.!
1. Мы ограничений не ставим клиентам
2. У вас же кластер, какие там ограничения, зачем?
Получается вы даете клиенту ограниченные возможности?

И да, давай посмотрим как на ваш VDS 2 ядра 2GB памяти. Я только зА.
Можете в личку отписать IP и пароль рута от вашей VDS

1. Сочувствую.

2. Вы хоть знаете как работает кластерная система и зачем она нужна?

Вы можете оформить тестовый заказ на сайте, в автоматическом режиме получить сервер, и прислать ай пи сервера для снятия лимита. Текущие лимиты никак не влияют на стандартную работу сервера (со стороны клиента) и нужны они только для того, что бы обезопасить других клиентов (на нодах не пару клиентов, как у Вас, а сотни клиентов).

loadcore:


Каждый день делаем бэкап. За полгода еще диски не померли. А вот ваши SAS намного быстрей умрут.


Это уже наши экономические проблемы.
Еще у нас используются SSD для кэширования, Вы знаете зачем нужно кэширование?
loadcore:


И хватит врать про Кластер и САС диски.
Все подробно расписал тут

Пожалуйста, докажите обратное, если Вы так считаете.

Создайте VPS в России, запросите два ядра и проведите тестирование, я могу снять все стандартные лимиты (в том числе на скорость дисков) что бы тест проводился, на общих основаниях (как у Вас).

Если Вы не знаете, как работает кластерная система, пожалуйста, не позорьтесь, у меня уже пол скайпа смеха от коллег.



loadcore:
А почему же наш Raid Быстрей? У вас же SAS ???

Возможно потому, что у Вас нет лимитов на дисковую систему, и один клиент может убить диск.

Но, у нас в отличии от Вас тысячи клиентов, и мы создаем комфортные условия для их сосуществования.

loadcore:
Кто тут школьник? вы? Сейчас как раз тест готов.

Пожалуйста, давайте тест на оговоренных двух ядрах, потому что тест выше только из за них.

Мои поздравления с днем рожденья :)

Всего: 356