Raistlin

Raistlin
Рейтинг
247
Регистрация
01.02.2010

Использую CentOS 64-bit на XEN и VDSки тоже на 64 бит (XEN не умеет i386 втыкать на ВПСки при 64-битном узле). Горя пока не знаю...

Я понимаю, что стоимость играет роль. Что входит в стоимость ВДС?

1. Стоимость канала.

2. Стоимость ноды (головного сервера).

3. Желание навариться хостера

4. Технология виртуализации (XEN обычно жестко резервирует ресурсы в отличии от OVZ, дает Swap и т.п. - отсюда он дороже).

5. Стоимость технической поддержки, помогают ли они с администрированием.

6. Количество клиентов и наличие офиц. юрлица.

7. Отношение к абузам (лояльное/не лояльное/абузостойкое).

За сим все. Да, и дешевый ВДС с панелью управления, да толковой настройкой и хорошей ТП - из разряда сказок... Лично я выбрал середину, так сказать балансирую между всем этим.

romagromov:
Разницы между ними не понимаю...

Ее нет. Это два названия одного продукта.

romagromov:
Нужен от 30гб, обязательно с установленной панелью, желательно с возможностью
предоставлять клиентам независимый доступ к из сайтам (типа ресселинг)

Могу предложить свои услуги. В Израиле VPS700 (http://hostace.ru/vps) вам подойдет. Предоставляем под ключ настроенное все, ставим nginx, DirectAdmin русский входит в стоимость.

Вообще же вам нужна VDS с предустановленной панелью управления.

romagromov:
за те же, а то и меньшие деньги - это как так?

Винты значит SATA. У нас - SCSI, это значит, что винты намнооого шустрее в итоге получаются. А так - больше шанс нарваться на соседа, который убьет на ноде IO. Вообще, скорее всего, именно от SCSI/SATA зависит. Да и конфигурации нод довольно таки разные у хостеров.

Raistlin добавил 13.04.2010 в 05:14

P.S. Еще играет роль наличие RAID на ноде.

Нет, не смонтированы. Этот сервер - рабочая нода для ВДС, и на ней народ хостится. Начал умирать sda, его отмонтировал, перенес структуру на sdc, RAID-1 догнал как сделать, он работает, потом остановил md2 (RAID0) - для SWAP, удалил с него диски, очистил суперблоки RAID. 8 гигабайт - это просто от фонаря, реально он нафиг такой своп не нужен, тем более на Dom0. Но вот сейчас боюсь перезагружать сервер, пока не разберусь. Сейчас ничего менять не буду - завтра на свежую голову....

Raistlin добавил 12.04.2010 в 21:30

Zaqwr:
Raistlin, /dev/sdc3 /dev/sdb3 не смонтированы?

Нет, не смонтированы никуда.

Raistlin добавил 13.04.2010 в 07:32

[root@sarge ~]# cd /dev

[root@sarge dev]# rm /dev/sdc3
rm: remove block special file `/dev/sdc3'? y
[root@sarge dev]# mknod /dev/sdc3 b 8 35
[root@sarge dev]# rm /dev/sdb3
rm: remove block special file `/dev/sdb3'? y
[root@sarge dev]# mknod /dev/sdb3 b 8 19
[root@sarge dev]# mdadm -Cv /dev/md2 --raid-devices=2 --level 0 /dev/sdc3 /dev/sdb3
mdadm: chunk size defaults to 64K
mdadm: array /dev/md2 started.
[root@sarge dev]# mkswap /dev/md2
Setting up swapspace version 1, size = 9310826 kB
[root@sarge dev]# swapon -a

Все получилось. Теперь вопрос... Чтобы сохранить изменения - мне нужно

mdadm --scan >/etc/mdadm.conf
и можно перезагружаться?

И когда извлекут sda могут ли возникнуть проблемы?

[root@sarge dev]# ls -l /dev/sdc3

brw-r----- 1 root disk 9, 126 Apr 12 12:30 /dev/sdc3
[root@sarge dev]# fdisk -l /dev/sdc3
[root@sarge dev]# ls -l /dev/sdb3
brw-r----- 1 root disk 9, 127 Apr 12 12:30 /dev/sdb3
[root@sarge dev]# fdisk -l /dev/sdb3
[root@sarge dev]# fdisk -l /dev/sdb

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdb1 * 1 102 819283+ fd Linux raid autodetect
/dev/sdb2 103 38347 307202962+ fd Linux raid autodetect
/dev/sdb3 38348 38913 4546395 fd Linux raid autodetect
[root@sarge dev]# fdisk -l /dev/sdc

Disk /dev/sdc: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdc1 * 1 102 819283+ fd Linux raid autodetect
/dev/sdc2 103 38347 307202962+ fd Linux raid autodetect
/dev/sdc3 38348 38913 4546395 fd Linux raid autodetect

hostace.ru - серверы в РФ, от 20 рублей. Плюс саппорт 18 часов в сутки в сети.

RAID 10 — зеркалированный массив, который затем записывается последовательно на несколько дисков, как RAID 0. Эта архитектура представляет собой массив типа RAID 0, сегментами которого являются массивы RAID 1. Он объединяет в себе высокую отказоустойчивость и производительность. Нынешние контроллеры используют этот режим по умолчанию для RAID 1. То есть, 1 диск основной, 2-й диск — зеркало, причем чтение производится с них поочередно, как для RAID 0. Собственно, сейчас можно считать что RAID 10 и RAID 1+0 — это просто разное название одного и того же метода аппаратного зеркалирования дисков. Но не стоит забывать, что полноценный RAID 1+0 должен содержать как минимум 4 диска.

Ни о каком 4-х кратном увеличении производительности речи не идет...

Ога... Я тогда в бан залечу, т.к. не всегда мышой ползуюсь... Даже по ссылкам хожу при помощи клавиатуры.

bugsmoran:
SATA - все что нужно для хостинга, потому что в грамтном хостинге диски почти не используются.

ни слова больше про грамотный хостинг. Не имеете представления.

bugsmoran:
К тому же скорость 7200rpm. И 4винта. Если собрать их в зеркало из 4-х, то скорость умножится ровно в 4 раза (на чтение естественно, а не на запись).

Для хостинга? Во-первых, в 4 раза невозможно, во-вторых, вы про Raid0 как я понял. Не говорите чепухи.

bugsmoran:
Если в контексте поставленной проблемы, то неплохо бы было сказать какой именно ресурс отжирается. Если проц - просто поставьте nginx и eAccelerator, Если память то уже поместу смотреть.

Диск - тоже имеет значение. Только у человека виртуал... а ему надо сваливать на ВДС в любом разе.

ТС, могу предложить соответствующий вашим требованиям сервер от 500р.мес. Но лучше двиг допилите - это правильнее.

Всего: 4674