MIRhosting.com

MIRhosting.com
Рейтинг
203
Регистрация
18.10.2006

Можно сделать на базе антиддоса от Сервериус. Есть точки присутствия на ams-ix, de-cix. data-ix кажется есть в амстердаме и франкфурте. Или gre как самое стандартное.

Плюс будет в том, что есть возможность работать по предоплате (prepaid). Оплатили заранее 2 часа фильтрации на атаки до 20 гбит, когда атака пойдет тогда они и будут считаться. IP блоки Вы можете сами переключать на наш аплинк через GRE.

Условия напрямую через Сервериус или через мирхостинг идентичны, во втором случае расширенные способы оплаты, также дополнительные услуги типа помощи с фильтрацией под ключ с мониторингом.

Саша Фоменс:
..он же консультант, он же манагер, он же тех.поддержка, он же диреХтор, он же вся эта хостер или как там его .... посетив сёрч животворящий, понял что обделался, решил исправится...

Конкретно OWL - нет. Про правила при неоплатах и бэкапах не знаю, но в плане "и директор и уборщица" - там все серьезно, и офис и люди, работающие в нем круглосуточно. И все данные на сайте, включая адрес.

Пора, сёрч животворящий, выступать гарантом или возглавить все возможные отделы хостеров, один фиг, все сюда пишут в случае проблем...

Да уж, не давайте людям плохие советы :)

На r1soft будет идеально как Вы хотите. Можете восстановить любой файл своего контейнера, самостоятельно. Доступ прямой клиентский.

На самом деле не обязательно лезть обновлять wordpress`ы, можно закрыть такие дырки на уровне серверного софта, того же modsecurity.

Но с обязательным информированием клиентов и возможность отключить по запросу (а еще лучше чтобы клиент сам мог отключить).

zzzit:
Детали.

Дело в том, что технологий будущего пока нет и нельзя просто так взять и сделать один виртуальный большой комьютер :)

Есть, почему.. и давно

http://www.scalemp.com/

У нас был заказчик, у которого были долбанутыеленивые программисты, которые уперлось в производительность даже самого последнего топового CPU от интела. А распределение делать не хотели. Разрабатывали им case на этом scalemp. В итоге оно конечно тоже не дешево но вполне реально. Но все это странные какие-то вещи, дешевле и правильнее делать горизонтальное масштабирование.

---------- Добавлено 29.04.2015 в 00:50 ----------

Да, по теме, на винде можно делать хорошие кластеры, но как и в любой другой виртуализации, максимум на один VPS будет максимум самой мощной ноды в кластере.

porutchik, и часто у Вас возникают случаи сетевых проблем из-за багов в ios требующих обновления? Что-то не помню я таких частых историй, независимо от местонахождения. Обычно проблемы гораздо банальнее :)

porutchik:
Ой, а как же хвалёная европейская супер-пупер-надёжность и прямые руки тамошних инженеров?

Проблемы сегодня возникли на уровне роутеров Сервериус. Какая бы отказоустойчивая сеть не была, непонятный баг/глюк в cisco может дать траблы в любых конфигурациях. Это может случиться где угодно, на любых тиерных датацентрах.

Единственная возможность получить 100% аптайм всем известен - гео отказоустойчивость.

Более простое: Serverius - провайдо-независимый датацентр. Можно подключить тот же RETN или какой-нибудь Level3 отдельный линком, хотя бы для резервных случаев.

Проблемы есть, как собственно это и пишется на noc сайте. Только к ддос это не имеет отношения, было бы гораздо проще если бы была просто атака.

Kuzmitch:
Да, вот как раз Parallels и смущает, он вообще у кого-нибудь из провайдеров умеет в облака? Тут пальцем ткнешь - у всех на подпорках стоит, судя по всему. В Infobox тоже 2 месяца на все вопросы "когда нормально работать будет" отвечают "мы сообщили разработчику платформы, они усердно работают над исправлением". А потом происходит апдейт, работает более-менее немного, и снова скатывается в такое вот:
Скриншот вот прямо сегодняшнего дня.

Parallels Cloud Server масштабирование не умеет делать. Сейчас из более менее надежного, это Jelastic который взял лучшее от PCS и допилил очень многое сам.

Ну там от бэкенда зависит. Если база то кажется там звездочка работала.

Можно и свой бэкенд написать если совсем что-то специфичное (или точнее подредактировать существующий)

Всего: 1516