zcaroot, вам в Швецию надо. Это одна из немногих стран с нормальным коннектом, и лояльным отношением к копирайту.
Малайзия и Сингапур - еще как реагируют на копирайт. Разве что на русском наверное поленятся читать :)
Tier1, Tier2, Tier3
MIRhosting.com, не поверите но людей, которые тебе тыкают, что вот видите ли трафик 100 евро за гигабит - более чем достаточно. А такие хостеры видимо расчитывают, что к ним не зайдут с трафиком выше 100 мегабит.
Гигабит подешевле - возможно сделать в Европе. Но только в прайм-тайм (с 19 до 23) могут быть просадки до 400-500 мегабит.
Наличие или отсуствие своей AS или PA/PI блоков адресов - абсолютно ниочем не говорит.
Лично у меня менялся айпи раз в пару лет. Считаю такое вполне допустимым. Первый раз - это просто устарело железо, а политика ДЦ - не переносить айпи. Второй раз - всем известная проблема с MHOST.
А если смена айпи происходит 3 раза за месяц - то думаю стоит сменить хостера, пока не потеряно все.
Да зависит от требований :) Мы же незнаем что и как будет делаться на виртуалках :)
У меня есть подобный клиент. И он раз в неделю рестарт всех виртуалок делает.
Max-net, сколько необходимо места и трафика? Какого рода контент?
А то все предлагают, а никто не интересуется - что же размещать надо. Потом как всегда - прийдет абуза и заблокируют акк. :)
На данный момент как много абуз? Можно пару примеров в аську/личку? И тогда можно решить - размещать в дорогой Швеции или же можно взять что-то подешевле.
Можно сделать подобный сервер в Европе за ~1500$ в месяц. Если нужно без проблем поднимем Windows на KVM виртуализации. Также возможно поставить вместо SAS -> SSD винты.
Контакты в подписи.
UPD: Я бы даже рекомендовал взять SSD + SATA/SAS. При старте ноды на SSD быстро загрузится ось на всех виртуалках. А непосредственно софт уже запускать с более медленных винтов.
Вот перенес еще одного клиента на SSD. До этого жил и не тужил на обычном sata-диске безо всяких рейдов.
Но в последнее время трафик возрос и все чаще начали наступать моменты, когда просто диск не успевал вовремя обрабатывать запросы (база на десяток гиг и на сотню гиг мелких файлов) и сервер сходил с ума с LA 200-250... Оптимизация и рестарт - лишь на первые пару часов были эффективны. Потом опять затык и лавиннообразно возникает очередь. Винт работал на чтение 26-28мбайт в сек.
После переноса всего добра на 240гб (для надежности 2 ssd поставили в зеркало) - нагрузка на файловую подсистему упала практически до нуля. Если раньше wa = 80...96%, то теперь всего навсего = 2...11%.
ЗЫ: за неименеем железяки - рейд выбран программный. При сборе рейда выдавалась скорость = 200...230 мбайт\сек. Теперь осталось мониторить состояние рейда и в случае каких-либо изменений - слать мыло. :)
Переносим клиентов на SSD OCZ Vertex3. Если есть несколько десятков тысяч мелких файлов - то скорость возрастает по сравнению с SATA RAID10 почти на порядок.
А для надежности SSD ставим в RAID1. Но если проект серьезный - то это того стоят. Нервы и простои обходятся дороже.
Будем надеятся что шареда на стойку ТСу хватит :) Так как даже пресловутые 20тб - выходят дороже. :)
Ключевая фраза "you understand and agree that we make no guarantee".
опыт, неплохая машинка. Оперативку нужно задействовать под кеш. Ну и если мало вам будет 600 гиг места (RAID10) - то подумать о замене SAS на 1-2тб SATA.
Сильно смущает цена за такой анлим. Что за канал? Никаких мелких примечаний нет? Если возможен - берите тест на 1-2 дня. В крайнем случае - пусть дадут ссылку на файл в 50-100 мегабайт, чтобы проверить скорость. Как бы этот канал не оказался шаредом на стойку.