- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте! У меня такой вопрос возник в свете того, что сейчас все больше интернет-пользователей используют мобильные устройства для просмотра сайтов и Гугл отдает больше предпочтения сайтам, оптимизированным под эти устройства. Есть у меня сайт, созданный чисто из статических html-страниц (при этом, правда, также используются инклуды для левого и правого вертикальных меню). Существует ли какой-нибудь более простой (кроме постраничного переноса каждой из страниц путем создания каждой из оных) способ перенести его на движок DLE? Кому приходилось с этим сталкиваться? Если ДА, то как можно поступить?
P. S. Сайт я создавал сам лично, но в php-программировании не смыслю.
kirillfiliberto, а страниц действительно так сильно много, что руками переносить не хочется?
Как вариант, спарсить сайт content downloader-ом. Для него есть модуль импорта в dle. Самое главное - сохранить структуру сайта и URL-ы.
kirillfiliberto, а страниц действительно так сильно много, что руками переносить не хочется?
.
Страниц там будет порядка двух тысяч
Способ переноса есть — парсер, импорт в базу.
Для конкретной CMS ищите.
Страниц там будет порядка двух тысяч
А сейчас сколько?
Переделать сайт из нереспансив в респансив несложно. Все что надо это хорошо знать regular expression и набрать стили которые надо заменить.
Например для начала находим код типа
и заменяем его на его же но с добавлением viewport:
(собственно, эта строчка - это все что нужно для гугла. По крайней мере последний раз когда я проверял, любой сайт с этой строчкой гуглом считался уже мобил-френдли)
Разумеется добавив эту строчку сайт респансив не становится, но пени от Гугла уже не будет.
Точно так же можно найти и заменить аргументы и стили и сделать сайт полностью мобильным. Я regular expression можно сказать вообще не знаю, все что умею - это найти похожее выражение и отредактировать для своих нужд, однако успешно сделал респансивным статический сайт в 35к страниц используя бесплатную утилиту MassReplaceI которая умеет найти и заменить контент в большом количестве файлов.
Сначала я прописал новые стили в css файле, после чего внутри html страниц запускал команду а-ля "найди и замени" где вырезал не нужные теги и добавлял нужные классы. Утилита понимает regex поэтому позволяет найти все что имеет логику.
Утилита для мак, но на линуксе это можно делать обычными юниксовскими командами, например найти и заменить style text/css можно при помощи команды типа этой:
Для того кто дружит с regular expression в принципе ничего сложно нет. К сожалению я не спец в регулярных выражениях поэтому возился долго, и за подобный заказ больше не возьмусь.
Если все же необходима именно CMS, то я бы назвал несколько возможных вариантов:
Вариант 1:
Плагин http://codecanyon.net/item/html-2-posts-wordpress-plugin/3717408?ref=avoinich опубликует все что находится внутри определенных тегов и создаст посты с этим содержимым. Я где то видел бесплатные аналоги но их не проверял.
Вариант 2. Если названия файлов имеют какую-то логику то пишешь php-скрипт который будет брать содержимое тегов на нужной странице и публиковать их. Недостаток этого в том что при каждом запросе php скрипт будет каждый раз звать нужную страницу и брать оттуда код, а если делать правильно, что бы кэшировалось и все дела, то это много работы. Ну и в результате получится динамический вариант статитического сайта.
Плугин перенесет содержание в базу данных, откуда можно будет вырезать Width и Height аттрибуты тем же реджитом
Вариант 3. Захватываеть содержимое страниц этого сайта и публиковать их в Вордпресс. Например вот эту библиотеку в виде плагина к вордпрессу (есть php аналог у этого же автора) может захватить содержание любого тега внутри любой страницы в интернете и опубликовать это в вордпресс пост. Я его использую вместо API что бы получить то что через API не всегда возможно.
Надо будет только создать шорткод содержащий нужные урлы.