Вообщем проблема вот в чём.
Есть движок сайта размером 200 Гб(тексты, картинки, видео и т.д.), и постоянно увеличивается в размере. На этом движке работают 46 сайтов, используя одни и те же файлы на всех из тех 200 Гб. Сайты абсолютно разные.
Задача: Открыть на другом IP адресе в пределах одного сервера еще 10 сайтов, которые будут использовать всё ту же постоянно обновляемую огромную базу.
Все домены используют одну и ту же директорию, идин и тот же файл index и т.д.
Когда создаю 2 аккаунта в directadmin, и ставлю symbolic link с директории одного аккаунта на тот, в котором хранится основная база, эта директория через менеджер файлов directadmin вообще не видна, и не открывается через http-доступ к сайту. Пробовал менять владельцев директории/ссылки. Не помогает.
Что можно сделать, не портя саму структуру и работоспособность directadmin?
(Если бы не directadmin, прописал бы в httpd.conf за 2 секунды и не мучался, так хочется по-человечески)
Ну, ясное дело. Ставят ассесоры, а им сверху даются указания, какой сайт должен быть релевантен по каким ключевым словам.
А решение принимают алгоритмы. Пример алгоритма:
А в случае чего:
Ведь мы зеркало Рунета и т.д. и т.п.
Вот открыли бы исходный код своих алгоритмов, чтоб любой желающий мог просчитать на каком месте должен находится его сайт, тогда можно было бы судить о честности.
А на данный момент:
1. Решение принимают алгоритмы
2. Алгоритмами управляют люди
3. Людьми управляет владелец ПС
Вывод: алгоритмами управляет владелец ПС
Или хотите поспорить?
Возможно эта страница переоптимизирована под этот запрос, и яша выкидывает её как поисковый спам?
Почему именно яндекс?
Если интересен эксперимент, напишите адрес сайта, через 2-3 дня сайт будет в бане у гугла (на это уйдет всего 3-4 минуты для проспама карты Вашего сайта по 10 немодерируемым заброшеным форумам).
То ПС так пишет что внешние файторы не влияют в минус, на самом деле очень даже влияют.
Для всех трех поисковиков!
Купить первые места можно, и есть ряд примеров, если посмотреть некоторые топы яши.
Когда среди сайтов состоящих сплошняком из ключевиков Вы видите качественный сайт на первых местах выдачи, на которых ключевики вообще практически не встречаются - вот вам пример купленного места.
Такие сайты поголовно достаточно качественные чтоб им быть на первых местах, но ставятся они туда совсем не алгоритмами, и совсем не бесплатно.
не палится.
очень много белых сайтов так работают. примеры приводил уже
Если картинки уникальные, то нет минуса. На многих сайтах картинки так хранятся.
В любом случае яндексу придется откручивать те же деньги, только дольше. Соответственно пополнять Директ будут реже. Значит доходы тоже упадут.
entropy, Я Вам это уже написал 23 поста назад.
На что Вы ответили:
Не смешно ли?
entropy, судя по последнему Вашему посту, Ваша программа генерирует кучу мелких файлов
На что я тоже Вам уже дал правильный ответ в том же посте
entropy, лучше не высмеивайте ответы и советы, и не страдайте троллингом.
Вообщем, разбирайтесь сами.
Сколько файлов Вы ложите в одну директорию, обвиняя файловые системы? 1000? 10000? Больше? Только честно.
Нет, у меня не было. Сразу в баню отправлялись домены