- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если cms на файлах написана прямыми руками:
1) скорость генерации страницы будет моментальная.
2) нагрузка на проц и оперативку минимальная.
3) легкость бекапа и переноса.
Как разработчик двойного движка (в одном движке поддержка файлов и бд) не соглашусь:
1. нет разницы, при больших объемах бд быстрее.
2. одинаковая, точнее есть разница, но она принебрижительно мала
3. если движок сам умеет (например как мой) создавать бекапы и разворачивать, то ез разницы бд или файлы. Создание/восстановление дампа даже проще, чем копирование сотен файлов
По моим тестам основное время (половина) уходит на парсинг php файлов, собственно на сами запросы к бд или чтение файлового хранилища уходит около 10. Это означает, что структура таблиц бд и запросы оптмизированы, как впрочем и файловое хранилище.
Для данных небольших размеров, не поддающихся упорядочиванию в таблицы лучше файллы без вариантов, верно и отрицательное утверждение - для серийных данных нужна бд.
2) адекватные разработчики создают и распределяют файловую базу так, чтоб она не требовала еще кеширований.
3) с точностью наоборот - заархивировать файлы можно не останавливая сайта. А вот забекапить мускул без остановки будет проблематично.
хотел как-то глянуть вашу цмс, после такого дилетантского ответа - желание пропало.
2) файлы заведомо медленнее памяти. как вы файлы по диску не распределяйте, кэширование в памяти вашу хитросистему уделает.
3) как все запущено... посмотрел бы я на вас, как вы пытаетесь заархивировать постоянно изменяющийся файл, а вот у мускулдампа такой проблемы нет. во вторых вы вообще не поняли о чем речь очевидно - мускул можно переносить репликацией, что позволит вообще не останавливать сайт, а вот с файлами вам прийдется останавливать сайт если вы хотите что бы сохранилась целостность базы
abazaba, если говорить о "постоянно изменяющийся файл", т.е. не просто сайт визитка (даже большая визитка, типа портал), а типа чат - то конечно простые файлы не лучший выбор...
abazaba, если говорить о "постоянно изменяющийся файл", т.е. не просто сайт визитка - то конечно простые файлы не лучший выбор...
т.е. вы на полном серьезе советовали выбирать файлы из-за производительности вместо базы для сайта визитки из пары страниц? да о каких тормозах там вообще речь идет? о 0.00001 времени генерации супротив 0.0001 ?:)
2) файлы заведомо медленнее памяти. как вы файлы по диску не распределяйте, кэширование в памяти вашу хитросистему уделает.
3) как все запущено... посмотрел бы я на вас, как вы пытаетесь заархивировать постоянно изменяющийся файл, а вот у мускулдампа такой проблемы нет. во вторых вы вообще не поняли о чем речь очевидно - мускул можно переносить репликацией, что позволит вообще не останавливать сайт, а вот с файлами вам прийдется останавливать сайт если вы хотите что бы сохранилась целостность базы
Тут вы ошибаетесь - memcache решит спор о памяти и файлах, или увличение кеша файловой системы, увеличение этих же параметров для бд не даст стользначительного прироста. Про бекап бд вы тоже что то не то пишите: бекап бд легко делается на неболших базах, а вот на высоконагруженных ссистемах это реальная проблема, так как время резирвирования значительно больше времени когда бд меняется, то есть бд успевает изменится до окончания бекапа. Есть целый ряд методик решить задачу снятие слепка бд и все они не просты и гемора там много. Речь идет о десятках Гб бд
Судя по оживленной дискуссии. Делаю следующие выводы:
Для небольших сайтов лучше файлы.
Для больших - MySQL
2) адекватные разработчики создают и распределяют файловую базу так, чтоб она не требовала еще кеширований.
Кеш в ОЗУ работает гораздо быстрее файлов ;)
А вот забекапить мускул без остановки будет проблематично.
В условиях небольших проектов - легко. На больших проектах приходится сначала отключать апач, потом mysql и только как все утихнет делать бекап. На CMS на файлах в общем так же.
Для небольших сайтов лучше файлы.
Для больших - MySQL
Все зависит от требуемого функционала
Какая CMS лучше и проще с точки зрения новичка? То есть, если я например только вчера узнал что такое интернет, а уже сегодня хочу свой сайт. Я думаю, что с CMS на файлах проще разобраться, и установить.
А если не теоретизировать о каких-то абстрактных ситуациях. а взять частую ситуацию из жизни. Когда нужно с меньшими затратами захостить больше сайтов, используя стандартное ПО,
Кеш в ОЗУ работает гораздо быстрее файлов ;)
а когда это vds на 256 мб и 50 вордпресов? :D
иногда всетаки выгоднее мучать винт файлами и экономить на оперативке, и пусть идет чтение из файлов с минимумом оператики.
В условиях небольших проектов - легко. На больших проектах приходится сначала отключать апач, потом mysql и только как все утихнет делать бекап. На CMS на файлах в общем так же.
когда данных много (новостной варезник), и постоянно идет какаято запись или изменение (постоянное добавление комментариев и новых страниц), без остановки мускула его будет не забекапить (ну бекапить то будет с помощью панели управления сервером, а не специальных персональным крутым софтом), в итоге можно получить битую базу на выходе.
А если это файлы, где например 1 файл = 1 страница + 1 файл = файл комментов этой страницы + редкоизменяемые файлы меню. Будет идти процесс копирования файлов, ну появится новый файл новой страницы, ну не попадет в бекап, общей целостности и стабильности сайта это не нарушит.
Както так :)
Как новичок-слабачок скажу: Коллега, ты прав.Ребятам, тем, что там вверху отписались, всё равно с чем работать (с базами,без баз), они подбирают под себя. Они могут себе это позволить.