- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
новый файл - 1 шт., на него редирект при запросе старых файлов, в новом файле при запросе к нему брать что надо из соответсвующего старого файла, средсвами php убирать лишнее, добавлять нужное и отдавать. 1000 файлов просто перемещаем в другую папку... ну как-то так...
Эдак нагрузка может быть нев... большая т.е..
Хотя если продолжить идею, то так можно нагенерить обновлённой статики. Однако нафига эти лисапеты, если по сути это усложненный самопис такого же софта как SaR, что выше Фома показывал.
отпарсить весь текст в БД движка и настроить прежнее ЧПУ - самое правильное - ИМХО
отпарсить весь текст в БД движка и настроить прежнее ЧПУ - самое правильное - ИМХО
Хм... ну да, кстати. Это тоже идея. Спасибо.
Даже это форум где мы сейчас сделан по такому принципу.
Ты путаешь с пальцем. Парсинг 1к физ файлов и разбром их регулярками это совсем не то же, что выбирать из БД нужное :)
Причём выбирать из файлов может быть достаточно ресурсоёмко (смотря как построены эти файлы).
Потом захотите что то изменить и опять все по новой?
Не так дорого будет спарсить нужный контент и залить в бд с сохранением текущих урлов.
Ну а потом встраивать уже в любой дизайн какой хотите.
отпарсить весь текст в БД движка
Можно ещё проще :)
Какой-нить софтиной по запросу HTML to Text Converter получить текст, который уже импортировать в двиг его же средствами\плагами к двигу.
Ну т.е. никакого хардкора не потребуется. :)
SeVlad - парсинг в том варианте как я предложил делается в конкретный момент времени не всех 1000 файлов, а только 1 - именно того файла который в данный момент запросил у сервера конкретный юзер/браузер. Так что с нагрузкой все будет нормально, если конечно на сайте не миллион посетителей одновременно.
Отпарсить контент и в базу, оно конечно по науке и более правильно. А какими инструментами посоветуете это делать?
(просто весь контент конвернуть в html, а не произойдет ли потеря и/или захламление контентом из менюшек и прочих элементов которые упомянул ТС и как там с тайтлами и дескрипгенами?)
парсинг в том варианте как я предложил делается в конкретный момент времени не всех 1000 файлов, а только 1 - именно того файла который в данный момент запросил у сервера конкретный юзер/брайзер.
Всё верно. Я так и понял. Об этом и говорил.
На сайте 100 запросов - 100 копий "1-го файла" в памяти - 100 генераций динамических.
Можно было бы Notepad++ом сменить куски html кода (лучше сразу на include), но 1000 файлов он не потянет. А вот Search and Replace вполне справится.
менял куски в десятках тысяч файлов в нотепаде, справлялся
Тут как раз в соседней теме ярко спорили о том, что движки не нужны и можно делать в отдельных файлах. И вот результат, ребята.