- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Проблема данного топика в том, что проблему пытаемся решить однобоко. Нельзя решать железом и забить на программную часть или наоборот. Это все проиграшные варианты.
да, но проиграют во времени ответа, если ничего не готовить как надо.
а бизнес скажет - зачем нам возможность обработки 1000 запросов, если мы отвечаем 5 секунд?!
Не учитываете то, что бизнес уже сказал, что им нужно столько запросов. Читайте топик. И от этого стоит отталкиватся по данному конкретному топику.
А в целом да, если процессов мало, то однозночно более производительное ядро ищем. Но учитываем, чтобы суммарной производительности процессора(ов) хватило. А если процессов много, то два варианта:
Запросы легкие - вытащить инфу по какому-то определенному ID в таблице. Там где списки записей, я в целях оптимизации закешировал в html. Чтобы меньше обращений к базе было. В нужных местах подключаю файлы. Условно категория.id.html.
Движок самописный. Тяжелых запросов нет. Просто большой трафик. В пики утром и вечером. Судя по графане с прометеем, трафик доходит иногда до 100-110 Мбит/сек. Канал гигабитный. Во время бекапов это заметно. На 1 гб файлы улетают.
Запросы легкие - вытащить инфу по какому-то определенному ID в таблице. Там где списки записей, я в целях оптимизации закешировал в html. Чтобы меньше обращений к базе было. В нужных местах подключаю файлы. Условно категория.id.html.
Движок самописный. Тяжелых запросов нет. Просто большой трафик. В пики утром и вечером. Судя по графане с прометеем, трафик доходит иногда до 100-110 Мбит/сек. Канал гигабитный. Во время бекапов это заметно. На 1 гб файлы улетают.
скорее всего в mysql упирается, тестирую свой прожект на 4хCPU AMD Ryzen 7 5700G 8RAM
php+sqlite (read mode)
показывает 11к/сек запросов
У меня вот такие конфиги
key_buffer_size = 128M
[mysqld]
### Persistent Connections
max_connections = 2000
### Timeouts
wait_timeout = 100
interactive_timeout = 100
### Slow Logs
long_query_time = 10
slow_query_log = 1
slow_query_log_file = /var/log/mysql/mysql-slow.log
### InnoDb
innodb_buffer_pool_size = 20G
innodb_flush_method = O_DIRECT
innodb_file_per_table = 1
innodb_page_cleaners = 8
innodb_lru_scan_depth = 4096
### Query Cache
query_cache_size = 64M
### Other
max_allowed_packet = 16M
log_error = /var/log/mysql/error.log
ОС Debian 11
Php 7.4
mysqld Ver 10.5.26-MariaDB-0+deb11u2-log for debian-linux-gnu on x86_64 (Debian 11)
А чем лучше тестировать нагрузку?
я простым ab тестом гоняю, он не идеальный и с минимумом функций, но минимальную инфу покажет
ну и простой тест, 1000 запросов, 100 потоков
Php 7.4
8.1+ значительно быстрей даже с простейшими скриптами
8.1+ значительно быстрей даже с простейшими скриптами
Ну про значительно я бы конечно еще поспорил https://onlinephp.io/benchmarks
Обычно в рамках проекта это быстрота на уровне погрешности, где то даже медленнее