Тю, как же никак иначе, да посмотрите на хероку или даже дотклауд: https://www.dotcloud.com/pricing.html
Мощный шаред хостинг не подойдет 90% клиентам, потому что у одних большая нагрузка на базу, у других на диск, у третьих на CPU, у четвертых может очень много соединений, а пятый на каждый запрос жрет гигабайты памяти. В итоге один такой клиент сделает весь тазик практически неюзабельным для остальных.
Ну а вообще для тех, кто не хочет сам админить ничего и нужны гарантированные ресурсы есть такие хостеры, как heroku, где та же база под нужную нагрузку покупается за "один клик", никаких админов и т.д.
Не в ту сторону смотрите.
Есть такой хостер 123systems в далласе, 3 бакса в месяц, OpenVZ: http://www.123systems.net/vps.html
!=all, ну просто нет таких программистов, которые могут гарантировать безопасность и надежность и заявление о том, что это можно, но очень дорого звучит, как лапша на уши. Как можно заявлять, что это можно, если сами программисты не знают, как писать код так, чтобы не было багов и уязвимостей?
Не обманывайте заказчиков :)
Сразу видно, не программист.
Из того, чему можно научиться у нас пока есть только мнения кучки людей о том, как лучше писать код и несколько формальных теорий, которые невозможно подвтердить. Все. Ну и плюс подходы к вылавливанию багов, типа модульные тесты, нагрузочные, интеграционные, ревью кода и т.д - но они никак не связаны с самой проблемой написания кода, а только лишь дают возможность убедиться, что код написан плохо и верить и надеяться, что всей этой кучи тестов будет достаточно, чтобы не всплыл какой-то баг.
Реальных исследований о том, как влияет разное использование всяких конструкций языков на баги у нас нет. Но опять же, есть несколько идей (научных работ) этому посвещенных, но подтвердить их практически невозможно.
Вообще подтвердить какую-то идею по написанию кода является огромной проблемой и слишком дорого. Грубо, нужно нанять несколько команд профессиональных программистов и дать им реализовывать один и тот же проект разными способами, который при этом обязательно затрагивает целую кучу областей из компьютерных наук, а лучше несколько проектов для адекватности результатов.
Другой способ - анализировать существующие баги в опэнсорсе и пытаться угадать, как автор мыслил, что допустил ошибку и как можно было бы написать то же самое, но не ошибиться. Но это больше из психологии, а программисты таким заниматься не любят. Но зато это дешевле, чем проводить многолетние многомиллионные эксперименты.
Так что не надо тут про научились, ничего еще не умеем и не знаем, вся индустрия еще из пеленок не выползла. И это скорее случайнсть, что еще не было огромных катастроф из-за софта.
В Microsoft бы так не сказали ;)
Реальность такова, что мы до сих пор еще не научились писать надежный и безопасный код и вся софтверная индустрия еще очень юная.
Тут любят облаком все подряд называть. Облако это точно такой же VDS/VPS, но с почасовой/поминутной тарификацией и API для работы с машинами.
Юзаю ssh с tcp wrappers с белым списком без файрволов - libkeyutils.so.1.9 нигде нет
masterlan, а в чем проблема с "колхозом"-то? Типа есть какая-то разница держать 1 машину или 20, если они все одинаковые. Колхоз - это когда каждый компонент начинают на разный сервер выносить, то база тормозит, то кэш тормозит, то что-то в бэкенде. Вот такое держать - это реально геморой и много работы.
К тому же, в случае с распределенным хранилищем, как Riak, всегда можно взять железо подороже, если слабеньких машин станет мало. Зачем раньше времени переплачивать за железо, которое будет простаивать и по IO и по CPU? Может он никому не понравится и на 3-х атомах будет годами работать с микротрафиком.