- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте!
Имеется несколько сайтов с десятками тысяч страниц, каждая из которых довольно весомого объема.
Есть потребность в оптимизации с точки зрения занимаемого пространства.
То есть, требуется найти идентичные части кода html и перевести их на SSI или на худой случай на php.
Есть у кого-то готовые решения, или встречаются в паблике?
Спасибо!
Это можно написать на том же PHP, если однотипные страницы создавались не абы как, а в точном соответствии с определенным шаблоном. Сейчас SSI не слишком популярен. Лучше использовать связку PHP/MySQL. В качестве каркаса для сайтов подойдет какой-нибудь простой движок без поддержки кэширования или с отключенным кэшированием, например G-Drive.
---------- Добавлено 16.10.2016 в 21:44 ----------
Кстати, многие хостинг-провайдеры объем базы данных не включают в объем предоставляемого дискового пространства, так что вы сможете хорошо расчистить диск при переносе основного контента в базу данных. Ну, и на шаблонизации сэкономить.
То есть основная проблема в том, чтобы найти идентичные части html?
Это можно написать на том же PHP, если однотипные страницы создавались не абы как, а в точном соответствии с определенным шаблоном. Сейчас SSI не слишком популярен. Лучше использовать связку PHP/MySQL. В качестве каркаса для сайтов подойдет какой-нибудь простой движок без поддержки кэширования или с отключенным кэшированием, например G-Drive.
---------- Добавлено 16.10.2016 в 21:44 ----------
Кстати, многие хостинг-провайдеры объем базы данных не включают в объем предоставляемого дискового пространства, так что вы сможете хорошо расчистить диск при переносе основного контента в базу данных. Ну, и на шаблонизации сэкономить.
Подскажите таких хостинг провайдеров?
Обычно место базы не только включено, но еще и ограниченно максимальным размером баз/таблиц и нагрузкой на них.
ТС, вы уверены что много весят именно сами хтмл? Не картинки, не статика не медиа, а именно сама верстка с текстом в ней? Если у вас странички в UTF-8 конвертните в win1251 это сильно сократит их размер. Ну а так даже 100 000 страниц текстовухи вряд ли смогут занять более 1 гига места. Еще можно сжимать в gzip у себя, а на серваке хранить уже сжатые файлы, gzip сжимает текстовуху до 30% от исходного значение, то есть 100Кб сожмет до 30Кб, а 1гб до 300мб соответственно. Предварительно можно пройтись каким нибудь HTMLMinifier, уваковать задачу в gulp и сделать это все автоматическим
Слишком мало вводных.
Хтмл рисовали шаблонно, или как попало?
Простейший способ - взять для начала хтмл до body, и просканировать все файлы простейшим скриптом на нахождение такого же участка кода. Уже будет понятен масштаб бедствия.
В общем и целом, мета, шапка и подвал почти всегда идентичны, нужно лишь найти отличные от общей массы страницы, например с дополнительными скриптами и т.п.
Такс, стоит задача(на будущее) сделать идеальный универсальный сжиматель для всех сайтов.
В идеале на php сам минимизатор, можно и картинки автомат оптимизировать бы как, без потери качества. Но спрашиваю, вдруг может есть у кого или готовые решение существуют.
Лучше без баз данных обойтись в итоге.
HTML сайтов шаблонный, но везде разные шаблоны и везде разные движки в сурсах. Хотелось бы универсальное движение, а не самому колупать
Хотелось бы универсальное движение, а не самому колупать
универсальное решение, которое ничего гарантировано не поламает - поточный гзип.
приправить минификаторами по вкусу.
которое ничего гарантировано не поламает - поточный гзип.
Нет таких гарантий. Даже наоборот - доп. элементы в системе снижают надёжность системы в целом.
Да и к задаче ТСа это отношения не имеет.
Такс, стоит задача(на будущее) сделать идеальный универсальный сжиматель для всех сайтов.
В идеале на php сам минимизатор, можно и картинки автомат оптимизировать бы как, без потери качества. Но спрашиваю, вдруг может есть у кого или готовые решение существуют.
Ты уж определись что тебе нужно. То найти "найти идентичные части кода html", то "идеальный универсальный сжиматель".
Хотелось бы универсальное движение,
Универсальное движение решение - это CMS
Готовых решений не видел. Ручками вполне реально переделать. Но если у вас большое количество страниц, то придется изрядно попотеть.
Готовых решений не видел.
Массовых заменитей в файлах? Да валом. Даже в регулярками и шаблонами есть.
Любые варианты рассматриваются или их синтез.