- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Указывайте куда именно вести запись, есть же опции в fio для этого.
Автор, линуксоидные системы обожают кэшировать в память. Чтобы результаты были правильными - делайте объем тестового файла на запись-чтение существенно больше, чем оперативка. Например, если оперативки 8 ГБ, то файл надо использовать на 40-50 ГБ. Тгда хоть какое-то приближение получите к реальности. Иначе тупо их кэша читать будете. Я там скорости и по 7 гигабайт в секунду видал на чтение :)
Автор, линуксоидные системы обожают кэшировать в память. Чтобы результаты были правильными - делайте объем тестового файла на запись-чтение существенно больше, чем оперативка. Например, если оперативки 8 ГБ, то файл надо использовать на 40-50 ГБ. Тгда хоть какое-то приближение получите к реальности. Иначе тупо их кэша читать будете. Я там скорости и по 7 гигабайт в секунду видал на чтение :)
fdatasync должно обходить кеш.
Вопрос состоит в том, почему у 3-ого сервера запись в 1.5-2 раза меньше, чем на первых двух конфигах? Кто виноват (материнская плата/контроллер/диски)? Может я что-то неправильно тестирую/собираю?
Я тоже в своё время изрядно помучался с тестированием различных SSD под линуком, использовал даже iometr, долгая история... Под виндой мучался в том числе с софтварными рамдисками.
Как правильно подметили, Linux любит кэшировать всё и вся, но опять таки dd с правильными ключами не даёт ему кэшироваться. По поводу третьего конфига, контроллер у вас, мягко говоря не для SSD, это древненький контроллер начального уровня, со слабеньким процессором и без кэш памяти.
На МП скорее всего есть AHCI контроллер, попробуйте повесить диски именно на него, создав массив в режиме RSTe (если оный поддерживается и сервер у вас физически), цифры должны лучше выйти чем на аппаратном, при условии что контроллер умеет SATA 6G и чипсет не очень древний.
UPD: мельком глянул на мать, плата должна всё вышеперечисленное уметь и обогнать аппаратный контроллер.
Автор, не шириной пропускания единой живет система хранения. Гораздо большее значение имеют IOPS на случайный доступ.
Наблюдаю на практике ширину доступа к SSD дискам, так вот, даже 50 мегабайт в секунду - это редчайшая редкость. Разве что у вас совсем уж специфическая нагрузка от приложения. А вот IOPS бывают приличными, 4-5 тысяч вполне бывают.
Вся фишка в LSI контролере, 1е его надо настраивать, 2е он не для этого расчитан, 3е его применяют совместно с системами кэширования.
На практике все оказывается не так, как многие здесь описали. Я взял 3-й конфиг и выкинул оттуда контроллер.
Вот результаты - dd (write) dd (read) UnixBench FIO (randread))
1) (hard raid10) + lsi 225 721 1820 38037/ 0.08
2) (softraid10) без lsi 200 740 1829 91583/0.03
Как видите, только FIO значительно отличается и без контроллера лучше работает, т.к. latency упал до 0.03, что соответствует конфигурации первых двух серверов. Теперь результаты примерно одинаковые. Все стало на свои места.
На практике все оказывается не так, как многие здесь описали. Я взял 3-й конфиг и выкинул оттуда контроллер.
Вот результаты - dd (write) dd (read) UnixBench FIO (randread))
1) (hard raid10) + lsi 225 721 1820 38037/ 0.08
2) (softraid10) без lsi 200 740 1829 91583/0.03
Как видите, только FIO значительно отличается и без контроллера лучше работает, т.к. latency упал до 0.03, что соответствует конфигурации первых двух серверов. Теперь результаты примерно одинаковые. Все стало на свои места.
Т.е как я и говорил проблема была в тормознутости аппаратного (причём начального уровня) контроллера?
Как видите, только FIO значительно отличается и без контроллера лучше работает, т.к. latency упал до 0.03, что соответствует конфигурации первых двух серверов.
1. Единственное что показывает более-менее правдивую картинку из перечисленных.
2. Разве не отклик важнее в этом всем?