- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Хостер, а принципиально ничего там не поменялось. Скорее вопрос к вашей методике тестирования. Может вы вообще в битриксе циферки пытались смотреть?
Или вы могли изначально не настроить кеширование записи. В синтетических тестах-то все отлично . Я тут публиковал даже : /ru/forum/comment/9763468
На практике у меня не было возможности замерить показатели одинаковых сайтов до SSD и после. Их переносили вообще с других серверов. То, что стало быстрей, это и так понятно.
Хостер В синтетических тестах-то все отлично . Я тут публиковал даже : /ru/forum/comment/9763468
Пичалька как раз в том что короткие тесты показывают отличные результаты, но если грузить
долго и упорно - флешкеш сдувается.
Хотя в спеках фигурирует оптимизация очереди записи, но практике я ее не вижу. Профитъ только от отложенной записи = пережевывание пиковых нагрузок, а не увеличение средней производительности.
hvosting, а зачем долго и упорно? Это и есть неправильная методика. Тест должен быть близким к реальным потребностям хостинга
Разумеется, когда на ssd много грязных блоков, возня по их вытеснению становится сложнее чем просто запись на основной диск. Какие-то там были новые оптимизации последовательной записи больших файлов вроде.
Из аргументов tiobench по ссылке должно быть видно, что он 10 гбайт нагенерил за короткий период. Да, это меньше размера ssd. Но а больше-
то зачем ?
Если клиентский проект создает файлы со сравнимой скоростью, то его следует вытравить с хостинга. И этот навык у всех хостеров отточен.
у меня на каждый дисковый массив постоянно пишется 10-30 мегабайт в секунду (в зависимости от времени суток).
Так что хотелось бы получить именно оптимизацию очереди записи, а не просто отложенную запись.
А есть ли здесь кто-нибудь с опытом использования Flashcache именно в production?
Здесь, наверное, нет. Но вот один хостер внедрил: https://www.facebook.com/NetAngels.ru/posts/340872339304897
Почему не использовал?
У меня ситуация была как раз такая:
собрал стенд
проверил на коротких тестах
получил отличные парадные цифры
ввел в продакшен
увидел что стало _хуже_
провел серию длинных тестов
убрал из продакшен.
Но это было пару лет назад, может быть они допилили новых алгоритмов с тех пор.
у меня на каждый дисковый массив постоянно пишется 10-30 мегабайт в секунду (в зависимости от времени суток).
Это чем посчитано 30 мбайт/ сек? график есть ? Это точно shared-хостинг типичных проектов? Сколько сайтов ?
Люди столько текста не набирают. А если у вас возникает необходимость сохранять не текст, то у вас не хостинг, а нечто специфическое.
Тут совсем надо осторожно с SSD, потому что еще и вероятность износа намного выше обычной будет.
Если SSD не успевает "стравить" эти 30мбайт/сек, то как обычный массив-то справляется?
Да, это шаред-хостинг, но очень кластерный. И при этом совсем не облачный :)
Ориентировочно каждая пара массивов молотит 12 000 сайтов. +-30%.
Насчет осторожности спасибо, стараюсь. Кстати именно на стенде с флешкешом
у меня ssd шка получала 2% wearout в неделю. Т.е. планируемый срок смерти - порядка года.
hvosting, что-то вы привираете. какой же массив переваривает такой объем случайных операций записи ?
никакого кеша raid , очевидно, тоже не хватит, если ssd не хватает.
hvosting, что-то вы привираете. какой же массив переваривает такой объем случайных операций записи ?
никакого кеша raid , очевидно, тоже не хватит, если ssd не хватает.
Похоже на то))
SSD в худшем случае 5000 iops дает.