- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Я вот про этот Alias: http://httpd.apache.org...
Интересный вариант, но глобальная идея: без необходимости грузить сервер апачем - эт не айс. ))
В общем проблема о которой вы писали надумана
Не совсем (могу конечно ошибаться, но...): помимо robots.txt может быть ещё множество нужных статических файлов типа карты сайта и других всевозможных контрольных например для инет-сервисов (google, yandex и т.д.)
header('Content-type: text/plain');
$controlfile = "sites/" . $_SERVER['HTTP_HOST'] . "/" . basename($_REQUEST[file]);
echo file_get_contents($controlfile);
?>
вроде решает проблему одного файла обработчика для всех, но в .htaccess их всё-равно все надо явно указывать. Другого решения за довольно длительный срок найти не удалось. Оно возможно существует, но башка уже не соображает в этом направлении... ))
У других веб серверов есть аналогичные механизмы.
Для этого можно использовать не только файлы, но и мета теги, например или что-нибудь ещё. К тому же,вы слишком зациклились на мультисайтинге. У вас десятки сайтов с единой базой? Или вы хотите использовать мультисайтинг для десятков совершенно различных сайтов? Если так, то зря.
У вас десятки сайтов с единой базой?
пока 4, но планирую 8-10.
Или вы хотите использовать мультисайтинг для десятков совершенно различных сайтов? Если так, то зря.
Да, и вижу только плюсы в этой идее - сюжет у меня специфичный. Есть несколько мелких (по 10-15 страниц) и шибко разнотематичных сайтов-визиток. Меняется там инфа крайне редко, что даже пароли в админку иногда забываюццо... Развивать их ни кто и никогда не будет. Сначала были в статике, но пришлось на Джумлу перенести - хотят изредка новость вставить. А т.к. проекты благотворительные - бесплатно работать редактором, да и ещё в самые неподходящие моменты напрягает. Вот и начал Друпал изучать для ликбезу - мож когда-нить пригодиццо...
Ну а то что серьёзные проекты сочинять с общей базой не надо - эт понятно... ))
При апдейте общих модулей, можно что-нибудь на каком-нибудь из сайтов поломать.
Вы экономите место, что-ли? =) В других вариантах отдельные сайты удобнее...
Вы экономите место, что-ли?
Неее, - с ресурсами для таких "шедевров" уже давно проблем нет... ))
Все сайты используют джентельменский набор модулей (нещадно удалял лишние на макете) и проблемы со стороны обновлений - маловероятны.
Тут как бы остаётся только далее вникать в Друпальную специфику, т.к. вообщем-то сайты работают и на удивление даже чуть быстрее, чем было на Джумле при том же функционале.
На самом деле, слухи про тяжеловесность Drupal сильно преувеличены. Особенно если mysql правильно настроен.
На самом деле, слухи про тяжеловесность Drupal сильно преувеличены
Вероятнее ДА, а вот про асиливание - преуменьшены... ))
Вообще с мультисайтингом например, если это не сайт-визитка, - реально обретается куча дополнительных проблем, которые на этапе изучения решить очень сложно. Например ради эксперимента прикрутил по форуму на пару сайтов - дык они "в одной упряжке", хотя контейнеры разные. Как их делить по сайтам - непонятно. Т.е. визуально для пользователя чтоб не нашёл - легко, дык веть в индекс попадёт лишнее с другого сайта. robots.txt - точно не вариант
У вас, видимо, лишние таблицы связаны в мальтисайтинге, или вообще все зачем-то(т.е. вообще одна общая база данных), раз такая проблема возникает.
На самом деле, должны быть только некоторые общие таблицы, например пользователей, но разные базы у каждого сайта с остальными табилцами, на самом-то деле.
И да, на этапе обучения решить многие задачи на drupal непросто, он вообще непрост в изучении. Его сложность, это плата за гибкость и универсальность.
Вот вы пока, по всей видимости, не понимаете, зачем вообще нужен мультисайтинг, и применяете его там, где он совершенно не нужен. И не так, как надо. =)
Если у вас есть однотипные сайты, с близкими наборами модулей, и вам необходимо быстрое развёртывание новых аналогичных, смотрите в сторону другого инструмента - distributions. Примеры таких сборок, можно поглядеть тут: http://drupal.org/project/distributions
Ещё есть полезный модуль features http://drupal.org/project/features, который позволяет делать заготовки готового функционала, в виде модулей.
А для упрощения развертывания и обслуживания, есть очень полезный инструмент: drush http://drupal.org/project/drush, который позволяет из командной строки автоматически скачивать и устанавливать обновления и.т.п.
зачем вообще нужен мультисайтинг
Лично мне мультисайтинг нужен токо для ликбезу и для редактирования (чужих ошибок в статьях) из одной админки десятка простых сайтов.
вообще одна общая база данных
Да, - одна общая база данных. Для сайтов на 8-12 страниц ваять отдельно - смысла нет.
ради эксперимента прикрутил по форуму на пару сайтов - дык они "в одной упряжке", хотя контейнеры разные. Как их делить по сайтам - непонятно
Форумы поделил варварским способом
RewriteCond %{REQUEST_FILENAME} !-f
RewriteRule ^forum$ http://бла-бла.com/ля-ля [R=301,L]
Но вопрос о размещении статических файлов, особенно html в соотетствующей папке sites/бла-бла.com/ так и неасилил.
header('Content-type: text/plain');
$controlfile = "sites/" . $_SERVER['HTTP_HOST'] . "/" . basename($_REQUEST[file]);
echo file_get_contents($controlfile);
?>
Через пхп html вообще выдаёт код, а не страницу.
.txt и карта работают