Не надо лезть не в свою нишу.
Т.е. 21_600_000 человек в сутки. Нехило так. Яндекс уже напрягся со своими 50 млн в сутки.
Вот только какое отношение это имеет к современным сайтам/сервисам, не понятно.
Какое отношение имеет автоматическая генерация статических страниц к древнему написанию сайтов на голых html, css и js.
Я видел как документация по какому-то фреймворку как раз сильно расписана в разделе по поводу такой генерации. Как бы не для Angular читал. Там вроде как вообще кода html нет, когда сайт на фреймворке работает. Чтобы индексировалось поисковиками, надо нагенерить html. И оно вроде как статика.
А кто где говорил, что на таких сайтах зарабатываются миллионы. Да, это уровень максимум средней зарплаты по стране.
Но использовать для такой ниши корпоративные технологии и платить за сервак несколько тысяч рублей в месяц, когда можно не платить, глупо.
Кроме того, есть вопрос скорости отдачи страницы серваком. А это уже улучшает поведенческие сайта.
Поставить на сервак кучу ПО и трястись, что он упадет. Внедрять костыли, чтобы не упал. - это для избранных. Мне не надо.
А причем здесь это. Генерить статику можно и на серваке и на луне. Суть: трафу отдавать статику при большой посещаемости.
Да, это стандарт. Если сайт часто обновляется, проще реализовать кэширование.
Главное в это верить. В прошлый век. Колесо тоже изобрели давно.
Есть еще скрипты, которые оптимизируют код готовой html-страницы. Хороший сервак надо оплатить, чтобы все это на него взваливать.
Робот-караул.
Ну не 100 страничник, а 300 и более. В свое время под 15 тыщ в сутки трафа было. Сейчас из-за ЖПТ о таких числах остается мечтать.
Кроме экономии на ресурсах (можно заказать VPS слабый в три раза дешевле и разместить несколько сайтов), такой подход дает надежность. Опыт показывает, что падение серваков чаще, если на них размещать фреймворки.
Кто вам сказал, что ЖПТ - это ИИ?
Пока ясно одно. Потеря трафа на сайты из-за ЖПТ связана не с качеством контента, а с тематикой и возможно спецификой аудитории. Есть темы, где ответы ЖПТ нередко неадекватны, а есть те - где хороши, так как компилируют инфу из нескольких источников.
Также прослеживается зависимость от сложности темы. Если она понимаема большинством и описана в большом количестве, уход трафа в ЖПТ больше. Если тема сложна, требует напряжения со стороны трафа для понимания, то уход его в ЖПТ невелик.
Вы не различаете техническую сложность сайта и количество трафика на него. Для вас это синонимы. Сайт может быть простым, но если трафа много, он создаст нагрузку.
Я пользуюсь scp при необходимости. Но где там фича, которая сама отследит изменившиеся файлы с предыдущего слива на сервак? Или я должен фильтр передать? Откуда я помню, когда я делал предыдущий слив? Посмотреть надо? Что-то много телодвижений уже на подходе. Гит все вопросы решает за меня.