- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Один из вариантов - это использовать отдельный скрипт для обработки запросов *.html
Зачем?
Не, правда - зачем?
Чем это лучше предложенных выше классических вариантов?
mihan, А зачем это вам (я к тому же - про нагрузку...)
просто в сайты-сателлиты код php'шный встроить, а вернее инклуд, а все сайты на html
просто в сайты-сателлиты код php'шный встроить, а вернее инклуд, а все сайты на html
Можно еще с помощью SSI, вставляете в html где нужно
<!--#include virtual="/путь к файлу/айнэнэ.php" -->
Зачем? Чем это лучше предложенных выше классических вариантов?
ИМХО, преимущества вышеописанных мной методов:
- для работоспособности предложенных выше (классических) вариантов должны существовать запрашиваемые файлы и каталоги (file1.html, file2.html и т.д.). Мой вариант реализации наличия таких файлов не требует (страницы строятся по шаблонам).
- если использовать подобный принцип, то легче строить большие сайты (парсер отвечает практически за все). Проблема лишь в написании подобного парсера и выработки алгоритмов.
Я к этому способу уже насколько привык, что создание обычного сайта на «сухом» html времени забирает больше, нежели динамичный (с полноценной имитацией статики).