Не нужно линейно передавать. Ты можешь запросы запихнуть в очереди. Или потоки в threading могут не висеть а засыпать в ожидании ответа, отдавая выполнение другим процессам. В итоге канал, физически обрабатывающи 1000 пользователей сможет работать с 10000.
не понимаю)если канал отдает контент 1000 пользователям в секунду, то остальные 9000 получат свой контент за 9 секунд, а за эти 9 секунд накопится очередь из еще 90000 пользователей же)
А если с очередями типа Kafka/Rabbit/celery, правильно настроенными I/O операциями с потоками или процессами?
может какие-то квантовые технологии уже придумали чтоб не передавать линейно всю информацию, не знаю, говорю про классику хайлоад стека, и все упирается в ширину канала)локально ты можешь показать цифры на порядок выше, но на проде не получится протолкнуть объем информации больше чем позволит канал
в теории это число должно быть равно размер канала / размер отдаваемой страничкидопустим на гигабите и при весе странички 50кб, то это будет ~2500 хостов в секунду, больше не получится физически, как-то так)
да, VPS, 1CPU, 2RAMсамопистам еще бд ~10гбвся нагрузка на отдачу, почти никаких записей, еще можно логи отключить и получить прирост производительности)
ага udp-syn-icmp пакетами))
26000 тыс. или 26.000.000 в штукахно обычно когда говорят про нагрузку, то указывают величину RPS сколько сайт,сервис, API и т.п. обрабатывает запросов в секунду без увеличения задержки (latency) этой самой обработкив хайлоад теме очень много нюансов, которые не всегда можно учесть,например если ты тестируешь локально без сетевых задержек, а в проде добавятся еще 200-1000мс сетевыхяндекс танк отлично показывает на скольких запросах идет провал системы и сколько она потянет в пике)
ну да)в основном все мои машинки упираются в доступный канал)
мало, оптимизировать быпохвастаюсь и я)такая машинка держит 26KK в суткиProcessor information AMD EPYC 7763 64-Core Processor, 1 coreRAM 1.91 GiB total
в консоли ошибки не вылетают?например такие:
Cross-Origin Request Blocked: (Reason: CORS request did not succeed).
не факт, что потянет 100 хостов, а если одновременно начнут качать по 100 ГБ файлик, то канал забьется быстро