Ну не 100 страничник, а 300 и более. В свое время под 15 тыщ в сутки трафа было. Сейчас из-за ЖПТ о таких числах остается мечтать.
Кроме экономии на ресурсах (можно заказать VPS слабый в три раза дешевле и разместить несколько сайтов), такой подход дает надежность. Опыт показывает, что падение серваков чаще, если на них размещать фреймворки.
Кто вам сказал, что ЖПТ - это ИИ?
Пока ясно одно. Потеря трафа на сайты из-за ЖПТ связана не с качеством контента, а с тематикой и возможно спецификой аудитории. Есть темы, где ответы ЖПТ нередко неадекватны, а есть те - где хороши, так как компилируют инфу из нескольких источников.
Также прослеживается зависимость от сложности темы. Если она понимаема большинством и описана в большом количестве, уход трафа в ЖПТ больше. Если тема сложна, требует напряжения со стороны трафа для понимания, то уход его в ЖПТ невелик.
Вы не различаете техническую сложность сайта и количество трафика на него. Для вас это синонимы. Сайт может быть простым, но если трафа много, он создаст нагрузку.
Я пользуюсь scp при необходимости. Но где там фича, которая сама отследит изменившиеся файлы с предыдущего слива на сервак? Или я должен фильтр передать? Откуда я помню, когда я делал предыдущий слив? Посмотреть надо? Что-то много телодвижений уже на подходе. Гит все вопросы решает за меня.
От тупо копирует с сайтов и ставит на них ссылки, если ответ на вопрос предполагает логическую связку. ЖПТ не умеет "причина-следствие".
Если не может скопировать, то выдает бред, потому что комбинаторика и теория вероятностей для таких ответов не подходят в принципе. Разработчики ЖПТ это знают.
Вопросы?
Почему только у вас?
Что помешает ЖПТ копировать этот контент, как и любой другой?
Представь мелкий сайт из 100 страниц, на котором пользователь может только читать и, допустим, переходить для оплаты на сторонний сервис. Всем выдаются одни и те же страницы сайта. Зачем на серваке держать движок или фреймворк, в котором работает шаблонизатор, роутер и не приведи господи подгружаются данные из БД. Это бессмысленный расход ресурсов. Ради их экономии на серваке держат уже готовые html-страницы. Сервак не исполняет никакие скрипты по отношению к сайту. Он тупо отдает по запросу готовое.
Но ты же не будешь разрабатывать сайт на голом HTML. Тебе нужен как минимум шаблонизатор. Поэтому на локальном компьютере разработка, обновление и обслуживание сайта идут полноценно. Стоит фреймворк. Но в нем так настроено, что при определенных изменениях в отдельной папке со статической версией сайта происходит обновление готовых html-страниц.
Эта папка с готовыми страницами тебе нафиг не нужна. Она чисто под слив на сервак. Чтобы удобно перекинуть, git подходит лучше всего. Для этого на серваке создают голый (bare) репозиторий, чтобы можно было пушить типа "сразу в главную ветку" без вопросов.
Гитхаб нужен, если надо сохранять полноценную разработку с локального компа. Он просто играет роль места для бэкапа.
Они меняются "динамикой". Сайт на фреймворке. Вносишь изменения на сайте на локальном компе. Определенный скрипт отслеживает изменения и подправляет статику. Льешь статику на веб-сервер. "Динамику" если надо сохранять на гитхаб или бэкапы делаешь.
Прикинь. Если меняется несколько страниц и несколько изображений в разных папках, с помощью гит офигенно удобно обновлять на серваке. Ты даже и не знал...
Что значит "у человека"? Чел должен быть спецом. А если он спец, то у него будут и прямые заказы.
Или это область образования/просвещения.
По "продукту" судят о человеке.