вы это как то визуально проверяете или у вас в прометеус данные сыплются и вы видите зависимость скорости отдачи от графика нагрузки?
Сижу в админке. Добавляю новую инфу и т.д. В общем работаю с базой данных. И всё начинает работать медленнее. Вот нажимаешь на кнопку и нужно ждать немного. А обычно мгновенно.
ОС Debian 11
Php 7.4
mysqld Ver 10.5.26-MariaDB-0+deb11u2-log for debian-linux-gnu on x86_64 (Debian 11)
У меня вот такие конфиги
key_buffer_size = 128M
[mysqld]
### Persistent Connections
max_connections = 2000
### Timeouts
wait_timeout = 100
interactive_timeout = 100
### Slow Logs
long_query_time = 10
slow_query_log = 1
slow_query_log_file = /var/log/mysql/mysql-slow.log
### InnoDb
innodb_buffer_pool_size = 20G
innodb_flush_method = O_DIRECT
innodb_file_per_table = 1
innodb_page_cleaners = 8
innodb_lru_scan_depth = 4096
### Query Cache
query_cache_size = 64M
### Other
max_allowed_packet = 16M
log_error = /var/log/mysql/error.log
Запросы легкие - вытащить инфу по какому-то определенному ID в таблице. Там где списки записей, я в целях оптимизации закешировал в html. Чтобы меньше обращений к базе было. В нужных местах подключаю файлы. Условно категория.id.html.
Движок самописный. Тяжелых запросов нет. Просто большой трафик. В пики утром и вечером. Судя по графане с прометеем, трафик доходит иногда до 100-110 Мбит/сек. Канал гигабитный. Во время бекапов это заметно. На 1 гб файлы улетают.
У меня антипарсер есть. Блокирует, если превышены запросы.
Кроме этого в robots.txt
User-agent: ClaudeBot
Disallow: /
User-agent: BLEXBot
User-agent: MJ12bot
User-agent: dotbot
User-agent: SeekportBot
User-agent: AhrefsBot
User-agent: Amazonbot
User-agent: serpstatbot
User-agent: GPTBot
User-agent: AwarioRssBot
User-agent: AwarioSmartBot
User-agent: CCBot
User-agent: ChatGPT-User
User-agent: anthropic-ai
User-agent: Omgilibot
User-agent: Omgili
User-agent: FacebookBot
User-agent: Diffbot
User-agent: Bytespider
User-agent: ImagesiftBot
User-agent: cohere-ai