- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
вы тут, конечно, все умные собрались, вы разбираетесь и в базах данных и в пхп и прочих языках, а я вот например свой первый сайт на DLE так и не смог сам восстановить при переезде, а платить 5000 за 5 минут работы мне как-то в лом было, поэтому я насрал на эти базы данных и перешел на GetSimple, и уже третий сайт на ней делаю первые два http://artelena-photo.ru и http://sex-after-18.com/
вы как-то ушли от изначально заданного вопроса, а я скажу, что у подобных cms масса преимуществ перед всякими джумлами, друпалами и битриксами
В базе данных не хранятся страницы, в ней хранится только информация. И удачи вам в создании странички с заметками от пользователя Васи по тематике "Рыбалка".
Что а базе будет сделано 1 запросом, то у вас с 100500 файлов будет не возможно, ну или же вы просто убъете дисковую систему своим рекурсивным открытием/закрытием этих 100500 файлов, в поиске "а где же Вася писал с тегом рыбалка".
лучше с бд выбирать кмс :)
Зайдите в раздел "администрирование серверов", там люди как бы не дураки, но почему-то огромное количество людей парятся - не могут забекапить большую работающую базу, приходится эту самую базу останавливать... Файлы рулят ;)
Это с БД на Оракл есть такие проблемы. Не переживайте, до Оракла Вы не дорастёте, он таких денег стОит!
PS: Файлы рулят только на мелких сайтах. Хотя мне приходилось "женить" MySQL и файловую систему на сайте в 200 000 страниц. Несущественную редкозапрашиваемую информацию оказалось эффективнее хранить в файлах. Да и картинки - тоже по-любому в файлах хранятся.
Работают, не спорю. Но там по сути реализовывают свою БД, храня в отдельных файлах привязки записей.
Попробуйте прочитать 1000 файлов на поиск подстроки или какой либо другой операции, а потом сравните то же самое с sql запросом в базу. И посмотрите как хард будет себя вести в первом случае, а как во втором.
понятно, что эти CMS не предназначены для больших сайтов, так их и использовать нужно не для порталов и социальных сетей, а именно для сайтов каких-нибудь фирм и фирмочек, для MFA-сайтов(делайте качественные сайты и их не забанят) и прочего, а нахрена интересно и каким образом, скажем один человек станет создавать 100000 страниц? где такие умники водятся? можно конечно накопировать текстов и слегка переделать их с помощью программ, но зачем? Яндекс достаточно успешно банит говносайты, и на всех форумах детишки, которые начитались статей других детишек о том, как заработать в интернете, кричат и ругают яндекс и жалуются, что их сайты все время банят, а они только хотели на сапе заработать
Не представляю крупный проект без базы данных.
Кто то в теме говорил о том что бэкап делаю и это удобно, ничего удобного в этом не вижу. Вы делаете бэкап всех файлов каждый раз, а если их 40000 или более??? Делайте, качайте хз каким весом ваш бэкап директории, а я лично сделаю бэкап директории один раз, солью его с сервака, а потом дамп буду сливать каждый раз, хоть каждый день, ведь там эти 40 000 страниц будут весить порядка 3-5MB в гзипе.
В обще конечно дело каждого, но когда придется перенести сайт на мускул, не думайте что это будет просто.
Если создаете проекты с огромным количеством постов, контентом, то лучше делать это под управлением мускула и не заниматься извращением. Если страниц мало, можно и без него обойтись, но это ИМХО каждого.
Запустите поиск по 100500 файлам и такой же по базе.
И всё станет понятно.
+ кеширование можно использовать для частых запросов.
для поиска по сайтам можно поставить sphinx search
и яндекс и гугл не могут весь сайт проиндексировать, так что поиск будет не очень полный.