Нет.
Средний расход диска клиентом, по моим наблюдениям - 20%
То есть если он купил 1 Т, то будет фактически использовать 200 Г.
Получается 1 Т нельзя продать более чем 5.
Это не процессор и не память, где, возможно, клиент и не заметит, что у него подтормаживало с 14:30 по 17:48.
А, при грамотном подходе, - и подтормаживать не будет, так как вероятность большой нагрузки на значительную часть серверов VPS одновременно - невелика.
С дисковым пространством это не проканывает.
Файлы на диске или есть.
Или их нет.---------- Добавлено 02.10.2017 в 11:02 ----------
Даст. Даст и создать. Даст и использовать.
Если в настройках гипервизора разрешен memory overcommiting
По памяти - отнюдь не аналогично.
Так как есть своп.
Куда прекрасно автоматически убираются неиспользуемые непосредственно сейчас страницы памяти.
Эта технология существует уже несколько десятилетий и доведена до ума.
Речь вовсе НЕ о "лимитах на пользователя"
Именно и реальное занятое я и привел в расчетах
Там даже 10 клиентов не получается.
Просветите.
С плавающими ресурсами - тут все понятно. 100% в сутки не нужно серверу все 100% процессора или памяти. Да и память можно своповать.
А как быть с диском?
Пусть у меня 1 Т диска.
Как я могу продать его 20 разным клиентам.
Если как показывает практика каждый клиент забивает диск в среднем на 20%, то есть нужно фактически 200 Г * 20 шт = 4 Т
Оверселлинг по диску получается совсем не такой уж и выгодный.
И с учетом дикой стоимости SSD дешевые тарифы на большие диск SSD - с которых и начался разговор - не понятно как реализуются.
Охотно верю
Просто обращаю внимание, что память, процессор, доступ к диску - это все переменные величины.
И потому их можно разделять между пользователями легко и непринужденно оверселля.
Идея оверселлинга в том, что вероятность того, что все одновременно займут один и тот же ресурс - не 100%
То дисковое место не дает возможности манипулировать с ним столь гибко.
Если один пользователь занял диск, то это уже навсегда.
Нет, поскольку NS кэшируется, то никакой Раунд-Робин и т.п. не работает фактически нигде кроме как в пределах локальной сети.
Гугль давным давно отказался в своих публичных DNS серверах от Раунд-Робина по этой причине.
NS отдает ВСЕ сразу IP адреса по одному доменному имени.
Выбирает именно браузер.
Исходники браузеров доступны - гляньте сами как там это реализовано на самом деле.
Нет, не распределение нагрузки.
А именно - "чей ответ первым получит браузер".
Фактически это - "к кому выше скорость доступа".
Если сервер ответит через хрен знает сколько из за своей перенагруженности - только тогда это и будет из-за балансировка по нагрузке. Но это прям вообще жесткая недоступность сервера только.
Выбор браузером сервера проходят на основании того, что сервер просто устанавливает коннект TCP
То есть решение принимается браузером еще до того, как он получит страницу, а ведь именно выдача страницы и вызывают нагрузку на диски сервера и т.п.
На этапе выбора сервера браузером он еще не знает - а будет ли конкретный выбранный им сервер быстро отдавать страницы.
Предложенный мною вариант
example.org. A 1.2.3.4 2.3.4.5 6.7.8.9
Позволяет повысить доступность сервера например для случаев кривой маршрутизации к отдельным IP.
Мы сталкивались с тем, что в паре городов не видят наш сервер на одном хостинге размещенный, а в паре других городов не видят другой наш сервер-дубль на другом хостинге размещенный.
Проще было именно вот такую схему делать, чем бороться с провайдерами конечных пользователей в этих городах.
Разумеется предложенная мною схема не решает проблему надежности, если сервер http-бэкенда (fpm-php) упал, а сервер http-фронтенда (nginx) еще жив.
Но хорошо решает проблемы типа аварий в одном датацентре или кривых маршрутов.
В этом случае браузер автоматически выберет доступный датацентр.
Да ладно вам.
Вон OVH целый мегабизнес построил просто потому что не стал заморачиваться по поводу серверного железа.
А вы нос воротите.
☝---------- Добавлено 02.10.2017 в 09:34 ----------
Вы новых владельцев какими-то идиотами выставляете.
Они же вместе с бизнесом и все его долги покупают.
Зачем им это надо.
Тем более что хостинг ныне не тот товар, что как горячие пирожки расходится.
Если у всяких облаков и ПааСов есть еще шансы, то классический хостинг - это явно не то, на чем можно заработать, взвинтив цены.---------- Добавлено 02.10.2017 в 09:37 ----------
Оверселлить IOPS не проблема, это очевидно.
Но покупатели хостингов с большими дисками явно покупают 1 терабайт не для того, чтобы там хранить базу данных CMS Wordpress в количестве 2 шт.
Покупают, чтобы забить 1 Т медиа-файлами.
А пространство не оверселлиться, если только файлы на HDD не сбрасывать.
Однако в тарифе явно указано SSD---------- Добавлено 02.10.2017 в 09:42 ----------
Бытовая серия этих Самсунгов, что для домашнего использования - крайне не надежна под нагрузкой.
А промышленная серия, для использования на серверах - дико дорогая.
К тому же, в отличие от дисков, конкретно такие штуки как у вас по ссылке, нельзя зацепить на один компьютер в большом количестве.
И лоукост вы тут зря упомянули.
Эти штуки точно не для лоукоста.---------- Добавлено 02.10.2017 в 09:43 ----------
Он бы дома протянул 3 года
;)
Не то что на серверах
Абузоустойчивый хостинг в США, стране юридического сутяжничества????
Это невозможно.
Хостер из за вас запросто попадет на миллионы. Ему это не надо.
Спец службам есть чем заняться помимо вас.
Этот закон касается случая, когда вы продаете услугу анонимайзеров большому числу лиц. Таким блокировки могут быть реально неприятны да.
Для частного использования этот закон ни на что не влияет. Да и частному лицу блокировка не представляет проблему. Сменить сервис стоит копейки.
Запросы хостеру будут идти только в том случае, если частное лично для своих целей использующая анонимайзер реально что то поганое решит вытворять из под этого анонимайзера. Но это ничем и не отличается от прежнего положения. Думаете раньше, кулхацкеров не искали?
1. Сломаться может все. В том числе и CDN. Надежность CDN от крупной компании конечно высока. Но не 100%. Я бы сравнил это с надежностью облаков крупной же компании.
2. CDN-ом прекрасно кэшируется статика. Но что ты будешь делать с динамическим содержимым?
3. Если у тебя сплошная статика, то тебе и CDN не обязателен.
Делаешь 10 различных серверов с идентичным содержимым в 10 различных датацентрах.
Прописываешь в настройках DNS в A-записи все их IP-адреса.
Бонусом получаешь еще и оптимизацию по скорости.
Браузер отправляет запрос на все эти сайты, кто первый ответит (кто быстрее доступен в конкретном местонахождении конкретного пользователя) - с тем сервером браузер и будет работать.---------- Добавлено 01.10.2017 в 18:31 ----------
Ну-ну.
За последний год мне пришлось уже 3 раза один из экземпляров там пересоздавать.
Хорошо что он не единственный. Но к сожалению один из критичнейших.---------- Добавлено 01.10.2017 в 18:34 ----------
это умеет делать Zilore, например. зажрались они конечно. надеюсь все эти деньги тратят на свое развитие.
но если 1-2-3 домена - это будет не страшная сумма.