Т.е. 21_600_000 человек в сутки. Нехило так. Яндекс уже напрягся со своими 50 млн в сутки.
Яндекс нам не конкурент, мы пишем решения для ьольшей аудитории
А кто где говорил, что на таких сайтах зарабатываются миллионы
Поставить на сервак кучу ПО и трястись, что он упадет. Внедрять костыли, чтобы не упал. - это для избранных. Мне не надо.
Не надо что то делать, что не понимаешь. И ставить непонятное ПО. Тогда и не придется трястись. На наши сервисы мы даем отказоустойчивость 99.99% то есть в год может быть меньше часа, когда он недоступен. А твоя посещалка у нас в минуту.
Понятно что от информационника не стоит такого требовать, но стремиться надо
И рыночек не порешает, как нам пели в 90-ых... =)))
Возьмите пример Рб, где забыли законы рынка и цены на картошку стали руками регулировать. В итоге картошки нет. У поляков так не лезут в экономику и картошки хватает)
Вы не различаете техническую сложность сайта и количество трафика на него. Для вас это синонимы. Сайт может быть простым, но если трафа много, он создаст нагрузку.
Я пользуюсь scp при необходимости. Но где там фича, которая сама отследит изменившиеся файлы с предыдущего слива на сервак? Или я должен фильтр передать? Откуда я помню, когда я делал предыдущий слив? Посмотреть надо? Что-то много телодвижений уже на подходе. Гит все вопросы решает за меня.
Я уже говорил, если не брать необходимость копирования с сервера на локаль - норм решение для новичка. Rsync умеет синхронизировать, не scp. Хотелось бы увидеть 100 страничник, который генерирует траф, неподьемный для простого сервера)
Кто там бегал за мной и кричал что айтишникам пора идти в штукатуры-политочники - всегда будет на кусок хлеба, не то что вот эта вся ваша айтишка?Встречайте робота, который укладывает напольное покрытие, быстрее и лучше работяг)) Напрялись уже?
Начнем с того, что на таком сайте вообще нет смысла городить какие самописы и думать про экономию ресурсов даже для самого слабого сервака. Это экономия на спичках.
Стоит фреймворк. Но в нем так настроено, что при определенных изменениях в отдельной папке со статической версией сайта происходит обновление готовых html-страниц.
Эта папка с готовыми страницами тебе нафиг не нужна. Она чисто под слив на сервак. Чтобы удобно перекинуть, git подходит лучше всего.
Да, это допустимое решение при таком алгоритме, если бы не но, что ты упоминал. Ты любишь руками поковыряться на сервере. И тут весь смысл в гите пропадает. Начинаются пляски с бубнами. Нужно писать хуки для гита, Но в твоем случае самое простое - использовать rsync/scp, первый предпочтительней - он умеет работать только с измененными файлами, в итоге у тебя всегда будет копия одинаковая на сервере/локально.Так что я бы сделал нормальный гит репо и прикрутил бы actions, чтобы избежать таких извратов.Я на сегодня для своих проектов использую CodePipeline, с ним вообще забываешь про все эти бубны. Просто пушишь в репо и он уже сам разворачивает все на сервере.
В нашей деревне такого нет) Вааще лес не экономят! И без чека не выйдешь из магазина, если пользуешься кассами самообслуживания. Можно конечно чек из приложения приложить к сканеру, но по факту бумажки всегда печатаются
Нуда вносишь? Ты счас говоришь про код или про контент. Например создание новой новости на сайте? Или ты что-то изменил в дизайне шаблона страницы?
спрашивается, зачем скрипт если есть гит?
тут у меня уже начинает закипать мозг.
И тут он окончательно ломается. Откуда у тебя взялся гитхаб, ты все таки его используешь? Ты же говорил что у тебя голый гит-репо на серваке и копия его локально?
Чем дальше в лес... Ну и огород у тебя. КАкие страницы меняются, какие изображения? У тебя все- статика? А зачем тогда прослойка в виде гита? Ты же им не пользуешься для версионности. Еще раз - проще написать скрипт в пару строк и через SCP Гонять, причем в обе стороны - ты так сможешь и изменения с сервера забирать. Это не офигенно удобно - это изврат полный)