- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Дык смыл то в том что вас уже ткнули в проблему, которую мы уже решили давным-давно.
Вопрос в том что вы считаете себя едино правым, а это в технике плохое занятие.
А я вам отвечаю, что преблема выдуманная.
И разве я не написал, что готов выслушать аргументы? Ваши аргументы меня, простите, не убедили.
У меня, знаете, другой взгляд. Субъективно - Вы не верите или делаете вид, что не верите фактам из моих уст. Если не верите мне, спрашивайте своих авторитетов.
Объективно - как ни странно, но у технарей тоже полно своих мифов и суеверий, иногда доходящих до мракобесия. А на форумах достаточно распространителей этих суеверий, этот - не исключение. Не принимайте только это на свой счет.
Сталкиваться с инерциями приходится постоянно.
Cab081 добавил 09.04.2009 в 18:21
Не. одна секвенция выполняется последовательно. Другое дело, что несколько секвенций могут выполняться параллельно. Ну и плюс количество секвенций с размером блока < min_chunk явно меньшая доля нагрузки на диски.
Во-первых, параллельные секвенции, если и имеют место (это можно, кстати, в суппорте интела спросить), то это частный случай.
Во-вторых, видите, что получается, мы один раз усложнили схему, добавив шаги в секвенцию, потом стали думать над параллельностью, которая описывает только частный случай, может быть только тогда, когда данных на массиве меньше трети минус один диск. Когда данных больше - raid5 нервно курит, как говорит Dlag.
А если у нас еще и винт вылетел, и идет ребилд и пересчет контрольных сумм...
Если чего то не знаете, лучше идите жевать 😆
- не думаю что буду учить на халяву таких грубиянов, как делать своп на Xen доменах, как лимитируются ресурсы в Xen и почему не любят хамов
LineHost, Brim.ru, ребята, не мне вас учить тут жить, вы здесь давно, но можно попросить в ветке не того.. ну, вы сами знаете.
Ширина импулса во время которого есть доступ до IO, CPU зависит от выделенного объёма памяти для конкретной виртуалки.
ребята, не мне вас учить тут жить, вы здесь давно, но можно попросить в ветке не того.. ну, вы сами знаете.
Зря Вы так. Очень интересно как именно сотрудникам serv.lt, лимитируя память гостевого домена, удается управлять количеством доступного домену процессорного времени и операций ввода-вывода :D
Вообще ветка получилась почти юмористическая: домены с 256Мб ОП и без свопа, своп на RAID 1, память лимитирующая ЦПУ 😂 И ведь никто за язык не тянет.
Вообще ветка получилась почти юмористическая: домены с 256Мб ОП и без свопа
Уважаемый, мы услугу те-сти-ру-ем. Мы за нее пока не-бе-рем оплату. Она окончательно еще не сформирована. Мы позволили будущим клиентам, я надаеюсь, самим поучаствовать в формировании услуги.
Уважаемый, мы услугу те-сти-ру-ем. Мы за нее пока не-бе-рем оплату. Она окончательно еще не сформирована. Мы позволили будущим клиентам, я надаеюсь, самим поучаствовать в формировании услуги.
- блин, никто спасибо не скажет, у всех понты :( Ведь ясно говоришь:
1) 256Мб ОП без SWAP - это проблема
2) SWAP на RAID 1 - это проблема
- не верят, хотят тестировать на живых людях :(
- блин, никто спасибо не скажет, у всех понты :( Ведь ясно говоришь:
1) 256Мб ОП без SWAP - это проблема
2) SWAP на RAID 1 - это проблема
- не верят, хотят тестировать на живых людях :(
Спасибо за замечания, остальным участникам ветки тоже, действительно многое становится понятнее.
Мы не на людях тестируем, а наоборот, люди тестируют нас. Участники тестирования постоянно присылают свои замечания, и субъективные, и вполне конкретные. Все принимается к сведению и будет учтено.
Зря Вы так. Очень интересно как именно сотрудникам serv.lt, лимитируя память гостевого домена, удается управлять количеством доступного домену процессорного времени и операций ввода-вывода :D
Этим только доказываете что про XEN принципы знаете ровно 0. То же самое могу сказать о той демагогии про SWAP, RAID и тп. То есть, звон слышал, но вот откуда он - не понял 😂
Спасибо за замечания, остальным участникам ветки тоже, действительно многое становится понятнее.
Мы не на людях тестируем, а наоборот, люди тестируют нас. Участники тестирования постоянно присылают свои замечания, и субъективные, и вполне конкретные. Все принимается к сведению и будет учтено.
Забыл о главном (а сейчас реклама): самые активные наши тестеры будут вознаграждены дополнительными месяцами бесплатного использования VDS.
Во-первых, параллельные секвенции, если и имеют место (это можно, кстати, в суппорте интела спросить), то это частный случай.
Во-вторых, видите, что получается, мы один раз усложнили схему, добавив шаги в секвенцию, потом стали думать над параллельностью, которая описывает только частный случай, может быть только тогда, когда данных на массиве меньше трети минус один диск.
Все эти рассуждения сами только для частного случая. Секвенций VPS генерит не так много. По крайней мере мой локальный тестовый сервер с xen стал намного активнее раздавать контент после перехода на RAID6, причем софтовый! - реально затраты на подсчет контрольных сумм копеечные, а выйгрышь при записи куска больше min_chunk (или набора кусков из кеша) за счет параллельности очень и очень сильный.
Когда данных больше - raid5 нервно курит, как говорит Dlag.
А если у нас еще и винт вылетел, и идет ребилд и пересчет контрольных сумм...
Вот по этому мой хостер использует RAID60 :]