- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собираюсь переезжать на новый сервер (Hetzner EQ10 с 4 x 300 GB SAS HDD и 4-Port Hardware-RAID Controller). Раздумываю о том, какую файловую систему использовать (OS FreeBSD 8.2) - ZFS или родную UFS2. Переезд собственно обусловлен медленной работой дисковой подсистемы. На предыдущем сервере использовалась ZFS, объединяя 3 SATA диска в RAIDZ массив. На новом сервере в этом необходимости нет, т.к. аппаратный RAID выдаст один диск (хочу использовать RAID 10). Второй важной для меня возможностью ZFS является ARC-cache, которому хочу отдать значительный объем оперативной памяти для кеширования файлов. Что скажете, можно подумать, что в этом случае ZFS будет использоваться только как эдакая кеширующая надстройка над аппаратным RAID-ом, не является ли это overkill (перебором)? Есть ли какие-то еще "подводные камни"? Есть ли возможность организовать похожий кэш на UFS2 (без особой мороки)?
4 SAS-а (если они 10-15k) в Raid-10 будут оччень шустро работать по сравнению с SATA-ми в программном рейде.
А в аппаратном рейде кеша нет разве? Если есть, то дополнительно лучше ничего не громоздить.
Соглашусь с [umka].
Если нормальный RAID-контроллер, то разница RAID-10 на SAS с программным RAID на SATA будет достаточно большая.
;8749998']А в аппаратном рейде кеша нет разве? Если есть, то дополнительно лучше ничего не громоздить.
ну я говорил о кеше в несколько гигабайт...
Ставьте 4 SAS в RAID-10 на Adaptec 5405 и ufs2. Ничего быстрее на оборудовании Hetzner сделать не получится.
Ставьте 4 SAS в RAID-10 на Adaptec 5405 и ufs2. Ничего быстрее на оборудовании Hetzner сделать не получится.
Спасибо, хотя вы так построили фразу, как будто там в принципе ничего быстрого сделать нельзя, а этот вариант - от безысходности :)
Собираюсь переезжать на новый сервер (Hetzner EQ10 с 4 x 300 GB SAS HDD и 4-Port Hardware-RAID Controller). Раздумываю о том, какую файловую систему использовать (OS FreeBSD 8.2) - ZFS или родную UFS2. Переезд собственно обусловлен медленной работой дисковой подсистемы. На предыдущем сервере использовалась ZFS, объединяя 3 SATA диска в RAIDZ массив. На новом сервере в этом необходимости нет, т.к. аппаратный RAID выдаст один диск (хочу использовать RAID 10). Второй важной для меня возможностью ZFS является ARC-cache, которому хочу отдать значительный объем оперативной памяти для кеширования файлов. Что скажете, можно подумать, что в этом случае ZFS будет использоваться только как эдакая кеширующая надстройка над аппаратным RAID-ом, не является ли это overkill (перебором)? Есть ли какие-то еще "подводные камни"? Есть ли возможность организовать похожий кэш на UFS2 (без особой мороки)?
интересно ФС работает медленно на чтение или на запись?
юфс2 - тоже хорошая ФС, но у неё есть слабые места и если их обходить, то всё работает достаточно шустро
кстати какая модель аппаратного рейда? иногда лучше использовать софтовый рейд
есть разные способы оптимизации работы дисков, но нужно знать конкретные задачи )
Попробуйте 2 диска в 0 и 2 райда в zfs mirror. Работать будет быстрее (выходит кеш райда+кеш и оптимизации zfs, т.к. она райды свои делает не на уровне блоков, а на уровне данных), плюс хэши, снапшоты, лимиты, архивирование из zfs.
Где-то читал про zfs для БСД с поддержкой дедубликации, с ней вообще красота выходит.
Попробуйте 2 диска в 0 и 2 райда в zfs mirror. Работать будет быстрее (выходит кеш райда+кеш и оптимизации zfs, т.к. она райды свои делает не на уровне блоков, а на уровне данных), плюс хэши, снапшоты, лимиты, архивирование из zfs.
Где-то читал про zfs для БСД с поддержкой дедубликации, с ней вообще красота выходит.
а в продакшене зфс использовали? то как ?
интересно ФС работает медленно на чтение или на запись?
больше всего загружена чтением, более 2 млн. мелких файлов отдает, соответственно и меряю я скорость чтения, запись происходит относительно редко.
кстати какая модель аппаратного рейда? иногда лучше использовать софтовый рейд
Итак, контроллер Adaptec 5405, винты Seagate CHEETAH ST3300657SS
Mage1 добавил 05.04.2011 в 11:15
Попробуйте 2 диска в 0 и 2 райда в zfs mirror. Работать будет быстрее (выходит кеш райда+кеш и оптимизации zfs, т.к. она райды свои делает не на уровне блоков, а на уровне данных), плюс хэши, снапшоты, лимиты, архивирование из zfs.
Надо подумать над этим вариантом. А контроллеры поддерживают такую опцию - из четырех дисков сделать два страйпа?
Надо понять, рейд там всё-таки полноценный или простой HBA. Если полноценный - обычно они не отдают диски "просто так" и придется делать на каждый диск зеркало из 1 диска например.
Про то, что софт зеркала медленные - информация 10+ летней давности. Сейчас они сопоставимы (на одних и тех же дисках). И для веб-сервера, где 90% чтение, аппаратный практически неактуален. К тому же, zfs сделан так, что "транзакция выполнена полностью или не выполнена вообще", так что в BBU в данном случае смысла нет.
Более того, полностью аппаратный рейд без батарейки может быть на записи медленнее на порядок за счет того, что любая операция записи ждет завершения, блокируя другие операции.
cache это хорошо, но требуется отдельный диск, причем рекомендуется SLC SSD, которых в хецнере нет (у меня там тоже есть несколько проектов). Более того, больше 4 дисков поставить невозможно. Про кэш в памяти не скажу, особо не мерял.
Вот будет ли быстрее 2 диска в зеркале, 2 в кэше или просто 10 - не знаю. Надо проверять.
А вообще, "более 2 млн. мелких файлов" - напрашивается SSD. Как вариант - 2 сас и 2 ssd, 2 зеркала.
И еще. Для zfs, на которую пишут, имеет смысл ставить SSD на журнал транзакций (тип устройства log). Для веба актуальнее тип устройства cache