- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт на самопальном движке, ну возьмём к примеру - wordpress.
Может есть у кого-нибудь скрипт, который смог бы сграбить свой же сайт типа TeleportPro.
Сайт просто не большой, около 1k страниц. Софт ужасно тормозит - кривой косой. Принял решение - тупо сграбить эти 1000 страниц и выложить в статичном варианте.
А чем Вас Teleport не устроил? Как раз таки подходит под Ваши нужды.
А чем Вас Teleport не устроил? Как раз таки подходит под Ваши нужды.
Интересно, может есть проще вариант. Скрипт какой-нибудь, который бы к примеру закэшил все страницы или аналог телепорта серверный.
Если готовые программы не подходят, такой скрипт можно на коленке написать, только скармливайте ему диапазоны/маски адресов, чтобы обойтись без поиска ссылок по тексту. Можете и прям по базе запустить такой скрипт, циклически выписывающий страницы в файлы (попробуйте взять за основу имеющийся движок). Хотя я бы, конечно, не поступал так радикально, а навесил какой-нибудь легкий двиг на имеющуюся базу (с минимальными правками последней, если потребуется).
wget -m -p -P ~/website website.com
соберет сайт в копию статики.
Есть сайт на самопальном движке, ну возьмём к примеру - wordpress.
Шутка удалась :D
На самом деле, Вы уверены, что в таком варианте сайт не будет тормозить? Большинство тормозных сайтов, которые лично мне попадались, тормозят либо из-за больших объёмов загружаемой информации (например, картинки в формате .bmp :)), либо из-за тормозов javascript. Ни того, ни другого переходом на статику не исправить.
Шутка удалась :D
На самом деле, Вы уверены, что в таком варианте сайт не будет тормозить? Большинство тормозных сайтов, которые лично мне попадались, тормозят либо из-за больших объёмов загружаемой информации (например, картинки в формате .bmp :)), либо из-за тормозов javascript. Ни того, ни другого переходом на статику не исправить.
Я уже проанализировал, 100% статика изменит ситуацию. Дело в том, что откуда сайт использует базу, находится не на моём сервере.
---------- Post added 20-01-2017 at 12:45 ----------
wget -m -p -P ~/website website.com
соберет сайт в копию статики.
Спасибо. ;)
---------- Post added 20-01-2017 at 12:46 ----------
Если готовые программы не подходят, такой скрипт можно на коленке написать, только скармливайте ему диапазоны/маски адресов, чтобы обойтись без поиска ссылок по тексту. Можете и прям по базе запустить такой скрипт, циклически выписывающий страницы в файлы (попробуйте взять за основу имеющийся движок). Хотя я бы, конечно, не поступал так радикально, а навесил какой-нибудь легкий двиг на имеющуюся базу (с минимальными правками последней, если потребуется).
Спасибо, буду иметь ввиду )
wget -m -p -P ~/website website.com
соберет сайт в копию статики.
А wget собирает картинки, прописанные в css?
Для WP куча кеширующих плагинов.
Кроме того, есть cloudflare.
Я уже проанализировал, 100% статика изменит ситуацию. Дело в том, что откуда сайт использует базу, находится не на моём сервере.
Ну так исправьте это досадное недоразумение ;)
---------- Добавлено 20.01.2017 в 18:25 ----------
Встретив кочку, пытаемся построить сквозь нее туннель, вместо того чтобы ее переступить.
А wget собирает картинки, прописанные в css?
Да , а еще может конвертировать линки если нужно открыть сайт локально(опция -k),
проверяет битые ссылки и поддерживает ipv6. Но он однопоточный.
По вопросу ТС. ИМХО грамотное кэширование поможет.
Или обновление базы для вас не актуально?