- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Представь мелкий сайт из 100 страниц, на котором пользователь может только читать и, допустим, переходить для оплаты на сторонний сервис. Всем выдаются одни и те же страницы сайта. Зачем на серваке держать движок или фреймворк, в котором работает шаблонизатор, роутер и не приведи господи подгружаются данные из БД. Это бессмысленный расход ресурсов. Ради их экономии на серваке держат уже готовые html-страницы. Сервак не исполняет никакие скрипты по отношению к сайту. Он тупо отдает по запросу готовое.
Но ты же не будешь разрабатывать сайт на голом HTML. Тебе нужен как минимум шаблонизатор. Поэтому на локальном компьютере разработка, обновление и обслуживание сайта идут полноценно. Стоит фреймворк. Но в нем так настроено, что при определенных изменениях в отдельной папке со статической версией сайта происходит обновление готовых html-страниц.
Эта папка с готовыми страницами тебе нафиг не нужна. Она чисто под слив на сервак. Чтобы удобно перекинуть, git подходит лучше всего. Для этого на серваке создают голый (bare) репозиторий, чтобы можно было пушить типа "сразу в главную ветку" без вопросов.
Гитхаб нужен, если надо сохранять полноценную разработку с локального компа. Он просто играет роль места для бэкапа.
Представь мелкий сайт из 100 страниц
Начнем с того, что на таком сайте вообще нет смысла городить какие самописы и думать про экономию ресурсов даже для самого слабого сервака. Это экономия на спичках.
Стоит фреймворк. Но в нем так настроено, что при определенных изменениях в отдельной папке со статической версией сайта происходит обновление готовых html-страниц.
Эта папка с готовыми страницами тебе нафиг не нужна. Она чисто под слив на сервак. Чтобы удобно перекинуть, git подходит лучше всего.
Да, это допустимое решение при таком алгоритме, если бы не но, что ты упоминал. Ты любишь руками поковыряться на сервере. И тут весь смысл в гите пропадает. Начинаются пляски с бубнами. Нужно писать хуки для гита, Но в твоем случае самое простое - использовать rsync/scp, первый предпочтительней - он умеет работать только с измененными файлами, в итоге у тебя всегда будет копия одинаковая на сервере/локально.
Так что я бы сделал нормальный гит репо и прикрутил бы actions, чтобы избежать таких извратов.
Я на сегодня для своих проектов использую CodePipeline, с ним вообще забываешь про все эти бубны. Просто пушишь в репо и он уже сам разворачивает все на сервере.
Начнем с того, что на таком сайте вообще нет смысла городить какие самописы и думать про экономию ресурсов даже для самого слабого сервака. Это экономия на спичках.
Вы не различаете техническую сложность сайта и количество трафика на него. Для вас это синонимы. Сайт может быть простым, но если трафа много, он создаст нагрузку.
rsync/scp
Я пользуюсь scp при необходимости. Но где там фича, которая сама отследит изменившиеся файлы с предыдущего слива на сервак? Или я должен фильтр передать? Откуда я помню, когда я делал предыдущий слив? Посмотреть надо? Что-то много телодвижений уже на подходе. Гит все вопросы решает за меня.
Вы не различаете техническую сложность сайта и количество трафика на него. Для вас это синонимы. Сайт может быть простым, но если трафа много, он создаст нагрузку.
Я пользуюсь scp при необходимости. Но где там фича, которая сама отследит изменившиеся файлы с предыдущего слива на сервак? Или я должен фильтр передать? Откуда я помню, когда я делал предыдущий слив? Посмотреть надо? Что-то много телодвижений уже на подходе. Гит все вопросы решает за меня.
Я уже говорил, если не брать необходимость копирования с сервера на локаль - норм решение для новичка. Rsync умеет синхронизировать, не scp. Хотелось бы увидеть 100 страничник, который генерирует траф, неподьемный для простого сервера)
бы увидеть 100 страничник, который генерирует траф, неподьемный для простого сервера)
Ну не 100 страничник, а 300 и более. В свое время под 15 тыщ в сутки трафа было. Сейчас из-за ЖПТ о таких числах остается мечтать.
Кроме экономии на ресурсах (можно заказать VPS слабый в три раза дешевле и разместить несколько сайтов), такой подход дает надежность. Опыт показывает, что падение серваков чаще, если на них размещать фреймворки.
Зачем на серваке держать движок или фреймворк, в котором работает шаблонизатор, роутер и не приведи господи подгружаются данные из БД. Это бессмысленный расход ресурсов.
Чистая статика на проде - это прошлый век. По такой технологии работали "динамические" сайты, когда "динамика" только зарождалась. Многообразный кэш решает все проблемы. А для визиток с посещаемостью 0,0 и кэш не нужен.
Кстати, даже генераторы статических сайтов переехали на сервер, если, конечно, у вас хостинг не только для статики.
Кстати, даже генераторы статических сайтов переехали на сервер, если, конечно, у вас хостинг не только для статики.
А причем здесь это. Генерить статику можно и на серваке и на луне. Суть: трафу отдавать статику при большой посещаемости.
Многообразный кэш решает все проблемы.
Да, это стандарт. Если сайт часто обновляется, проще реализовать кэширование.
Чистая статика на проде - это прошлый век. По такой технологии работали "динамические" сайты, когда "динамика" только зарождалась.
Главное в это верить. В прошлый век. Колесо тоже изобрели давно.
Есть еще скрипты, которые оптимизируют код готовой html-страницы. Хороший сервак надо оплатить, чтобы все это на него взваливать.
Если цель такого сайта- рубить какую то копейку, чтоб жалеть на нормальный хостинг, тогда наверное да, можно страдать фигней. Нагрузка это когда 15 тыщ хотя бы в час. Работа со статик сайтами это баловство.
А кто где говорил, что на таких сайтах зарабатываются миллионы. Да, это уровень максимум средней зарплаты по стране.
Но использовать для такой ниши корпоративные технологии и платить за сервак несколько тысяч рублей в месяц, когда можно не платить, глупо.
Кроме того, есть вопрос скорости отдачи страницы серваком. А это уже улучшает поведенческие сайта.
Поставить на сервак кучу ПО и трястись, что он упадет. Внедрять костыли, чтобы не упал. - это для избранных. Мне не надо.
А причем здесь это.
Ну, Вы в очередной раз изобрели генератор статических сайтов и пишете, что это круто. Вот только какое отношение это имеет к современным сайтам/сервисам, не понятно.
Хороший сервак надо оплатить, чтобы все это на него взваливать.
Конечно, совсем другое дело "дискокачалка", забивающая системный дисковый кэш по самое не хочу 😊
А все и не нужно взваливать. "Дискокачалка" как раз отдельно идет (для медиа-файлов, pdf-, etc.) 😉
Вот только какое отношение это имеет к современным сайтам/сервисам, не понятно.
Какое отношение имеет автоматическая генерация статических страниц к древнему написанию сайтов на голых html, css и js.
Я видел как документация по какому-то фреймворку как раз сильно расписана в разделе по поводу такой генерации. Как бы не для Angular читал. Там вроде как вообще кода html нет, когда сайт на фреймворке работает. Чтобы индексировалось поисковиками, надо нагенерить html. И оно вроде как статика.