Докер - Сильно. Выгодно. Надежно

[Удален]
#211
Докер:
Опять заявления, которые ничем не подтверждены? Еще не один диск SAS не отказал.

Мы используем "железный" RAID10, в отличии от софтового (в котором критический баг, если Вы не знаете), он работает стабильно и выполняет все возложенные на него функции.

Вы в этом уже убедились самостоятельно? Покажите пожалуйста, результаты Вашего тестирования со снятыми лимитами (в пределах разумного), и ай пи который Вы мне отправляли.



Там видно, что клиент получил услугу исходя из оплаченного тарифа, со стандартными лимитами.
В Вашем же случае, у Вас лимитов нет, и возможно Вы даже не знаете как их ставить, и зачем они нужны, а я в свою очередь предложил Вам протестировать услугу на двух ядрах, с такой же оперативной памятью, и с повышенным лимитом на скорость и записи дисковой системы.

Как будет время потестирую.

Raid у нас как раз Аппаратный. Но вот что у вас за чудо. Вроде Кластер и сас. А работает как черепаха. Зачем тогда писать на сайте туфту про

Технология кластерного хостинга обеспечивает повышенную производительность и отказоустойчивость.

Незаметно что то

Докер
На сайте с 14.06.2012
Offline
23
#212
loadcore:
Как будет время потестирую.
Raid у нас как раз Аппаратный. Но вот что у вас за чудо. Вроде Кластер и сас. А работает как черепаха. Зачем тогда писать на сайте туфту про
Незаметно что то

Пожалуйста, тестируйте.

Кластерная система используется для отказоустойчивости и выделения ресурсов, если они нужны (оплачиваются).

Дисковая система SAS на SAN массиве, нужна для того, что бы обеспечить кластерную систему, а так же обеспечить ВСЕ серверы, заявленными и нужными (!) ресурсами для работы.

Когда разговор идет про одну VPS, это один случай, но когда 1000 клиентов, это другой случай, но этот случай к Вам точно не относится, у Вас столько VPS не будет, потому переживать не о чем.

Докер - Сильно. Выгодно. Надежно. www.docker.ru (www.docker.ru) Наша тема на SE, отзывы, предложения, акции. (/ru/forum/722174)
[Удален]
#213
Докер:
Пожалуйста, тестируйте.

Кластерная система используется для отказоустойчивости и выделения ресурсов, если они нужны (оплачиваются).
Дисковая система SAS на SAN массиве, нужна для того, что бы обеспечить кластерную систему, а так же обеспечить ВСЕ серверы, заявленными и нужными (!) ресурсами для работы.

Когда разговор идет про одну VPS, это один случай, но когда 1000 клиентов, это другой случай, но этот случай к Вам точно не относится, у Вас столько VPS не будет, потому переживать не о чем.

Мы будем продолжать дискуссии по всему форуму, или вы успокоитесь?

Докер
На сайте с 14.06.2012
Offline
23
#214
loadcore:
Мы будем продолжать дискуссии по всему форуму, или вы успокоитесь?

Я, в отличии от Вас не испытываю жгучий "Butthurt", и абсолютно спокойно себя веду.

У моей компании, у наших партнеров, у наших других проектах, очень большое количество клиентов, опыт работы, 100% работа всех сервисов (не путать с серверами, они могут падать, но клиенты это не замечают, потому что мы используем кластерную систему), наличие всех документов, лицензий, своего офиса, своего персонала который работает 24\7, и имеет опыт от 8 лет и выше в хостинг проектах, полностью своего оборудования более чем в трех дата-центрах, и использования собственных решений по системам хранения данных и кластерной системе.

Скажите, у Вас хоть одно из перечисленного мною есть? Кроме как показывать пальцами на тест, где у Вас процессор был установлен как два ядра, Вы больше ничего не можете? Я последний раз предлагаю Вам, получить тестовый пакет, где я выдам такие же ресурсы, как на тестированной Вами системе.

[Удален]
#215
Докер:
Я, в отличии от Вас не испытываю жгучий "Butthurt", и абсолютно спокойно себя веду.

У моей компании, у наших партнеров, у наших других проектах, очень большое количество клиентов, опыт работы, 100% работа всех сервисов (не путать с серверами, они могут падать, но клиенты это не замечают, потому что мы используем кластерную систему), наличие всех документов, лицензий, своего офиса, своего персонала который работает 24\7, и имеет опыт от 8 лет и выше в хостинг проектах, полностью своего оборудования более чем в трех дата-центрах, и использования собственных решений по системам хранения данных и кластерной системе.

Скажите, у Вас хоть одно из перечисленного мною есть? Кроме как показывать пальцами на тест, где у Вас процессор был установлен как два ядра, Вы больше ничего не можете? Я последний раз предлагаю Вам, получить тестовый пакет, где я выдам такие же ресурсы, как на тестированной Вами системе.

Я сделаю тест позже. Сейчас времени 2 часа ночи. Отдыхать тоже надо.

У вас хороший вопрос, отвечу - чего нет, будет.

Так что давайте уже, спокойной ночи.

Докер
На сайте с 14.06.2012
Offline
23
#216
loadcore:
Я сделаю тест позже. Сейчас времени 2 часа ночи. Отдыхать тоже надо.
У вас хороший вопрос, отвечу - чего нет, будет.
Так что давайте уже, спокойной ночи.

Я провел тестирование (в связи с тем, что нельзя снимать лимит на VPS для клиентов).

Процессоров сделал два (как у Вас в тарифе).

processor : 0

vendor_id : GenuineIntel

cpu family : 6

model : 42

model name : Intel(R) Xeon(R) CPU E31270 @ 3.40GHz

stepping : 7

cpu MHz : 3392.292

cache size : 8192 KB

fpu : yes

fpu_exception : yes

cpuid level : 13

wp : yes

flags : fpu de tsc msr pae cx8 sep cmov pat clflush mmx fxsr sse sse2 ss ht syscall nx lm constant_tsc rep_good aperfmperf pni pclmulqdq ssse3 cx16 sse4_1 sse4_2 x2apic popcnt avx hypervisor lahf_lm ida arat

bogomips : 6784.58

clflush size : 64

cache_alignment : 64

address sizes : 36 bits physical, 48 bits virtual

power management:

processor : 1

vendor_id : GenuineIntel

cpu family : 6

model : 42

model name : Intel(R) Xeon(R) CPU E31270 @ 3.40GHz

stepping : 7

cpu MHz : 3392.292

cache size : 8192 KB

fpu : yes

fpu_exception : yes

cpuid level : 13

wp : yes

flags : fpu de tsc msr pae cx8 sep cmov pat clflush mmx fxsr sse sse2 ss ht syscall nx lm constant_tsc rep_good aperfmperf pni pclmulqdq ssse3 cx16 sse4_1 sse4_2 x2apic popcnt avx hypervisor lahf_lm ida arat

bogomips : 6784.58

clflush size : 64

cache_alignment : 64

address sizes : 36 bits physical, 48 bits virtual

power management:

Оперативная память:

-bash-4.1# free -m

total used free shared buffers cached

Mem: 2043 330 1713 0 4 157

-/+ buffers/cache: 168 1875

Swap: 0 0 0

-bash-4.1#

Конфиг сервера:

kernel = "/xen/template/CentOS-6-amd64-isp/vmlinuz-2.6.32-5-xen-amd64"

ramdisk = "/xen/template/CentOS-6-amd64-isp/initrd.img-2.6.32-5-xen-amd64"

acpi = 1

apic = 1

name = "vps.docker.ru"

root = "/dev/xvda1 ro"

vif = [ 'ip=91.230.60.172,bridge=eth0,mac=00:16:3E:06:57:21' ]

disk = [ 'phy:/dev/vg800/vps.docker.ru,xvda1,w' ]

vfb = ['type=vnc, vncunused=0, vncdisplay=13, vncpasswd=***']

on_poweroff = 'destroy'

on_reboot = 'restart'

on_crash = 'restart'

serial='pty'

extra='xencons=hvc0'

memory = '2048'

vcpus = '2'

cpu_cap = '100'

ОС: CentOS (x64).

Результаты:

Benchmark Run: Tue Sep 25 2012 05:49:56 - 06:17:48
2 CPUs in system; running 2 parallel copies of tests

Dhrystone 2 using register variables 43597240.5 lps (10.0 s, 7 samples)
Double-Precision Whetstone 4651.5 MWIPS (9.9 s, 7 samples)
Execl Throughput 5940.5 lps (30.0 s, 2 samples)
File Copy 1024 bufsize 2000 maxblocks 465959.7 KBps (30.0 s, 2 samples)
File Copy 256 bufsize 500 maxblocks 185632.5 KBps (30.0 s, 2 samples)
File Copy 4096 bufsize 8000 maxblocks 2063777.0 KBps (30.0 s, 2 samples)
Pipe Throughput 2396034.2 lps (10.0 s, 7 samples)
Pipe-based Context Switching 470222.0 lps (10.0 s, 7 samples)
Process Creation 19316.3 lps (30.0 s, 2 samples)
Shell Scripts (1 concurrent) 7221.8 lpm (60.0 s, 2 samples)
Shell Scripts (8 concurrent) 984.0 lpm (60.0 s, 2 samples)
System Call Overhead 2514410.1 lps (10.0 s, 7 samples)

System Benchmarks Index Values BASELINE RESULT INDEX
Dhrystone 2 using register variables 116700.0 43597240.5 3735.8
Double-Precision Whetstone 55.0 4651.5 845.7
Execl Throughput 43.0 5940.5 1381.5
File Copy 1024 bufsize 2000 maxblocks 3960.0 465959.7 1176.7
File Copy 256 bufsize 500 maxblocks 1655.0 185632.5 1121.6
File Copy 4096 bufsize 8000 maxblocks 5800.0 2063777.0 3558.2
Pipe Throughput 12440.0 2396034.2 1926.1
Pipe-based Context Switching 4000.0 470222.0 1175.6
Process Creation 126.0 19316.3 1533.0
Shell Scripts (1 concurrent) 42.4 7221.8 1703.3
Shell Scripts (8 concurrent) 6.0 984.0 1640.0
System Call Overhead 15000.0 2514410.1 1676.3
========
System Benchmarks Index Score 1622.6

[root@vps UnixBench]#
Докер
На сайте с 14.06.2012
Offline
23
#217
Fat Bear
На сайте с 01.12.2006
Offline
264
#218

Ну и войнушка )))

Вы еще MTR начните выкладывать, уж до кучи ))

Открыть счёт в Capitalist ( https://capitalist.net/reg?from=e5707ff0c3 ). Виртуальные карты, USDT, банковские переводы, выплаты партнёрских программ.
Докер
На сайте с 14.06.2012
Offline
23
#219
Масол:
Ну и войнушка )))
Вы еще MTR начните выкладывать, уж до кучи ))

Да просто потом голова болит от этих "горе хостеров", сначала у клиентов, потом у хостинг провайдеров.

[Удален]
#220

Докер, отличный хостинг. Арендую у них сервер. Когда какие-то сложности, то быстро реагируют и помогают разобраться. Даже делают больше чем положено. Очень доволен качеством услуг.

С такой оперативностью и отзывчивостью хостинг, в России еще не встречал.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий