В robots.txt добавить директиву Host, указав в ней основное зеркало сайта, т.е. site.ru
Беритесь, практика всегда полезна... тем более когда бюджет позволяет, только расходуйте его грамотно, не на одни ссылки :)
P.S. Если бы мне кто-нибудь предложил поднять кирпич за 1000 у.е.... поднял бы без вопросов... Делов то, наклониться всего лишь :)
Естественно, об этом речь и шла :) Все верно говорит Alexby
Если ответить на Ваш вопрос в сабже:
Я считаю, что нет...
Возможно совпадение с другими факторами падения, которые Вы не заметили?
У меня была похожая ситуация, тоже вылетали страницы из индекса по похожей причине (работа сервера), но по возвращению страниц в индекс позиции кардинальным образом не изменились.
Попробуйте капать в другую сторону.
Будет индексировать страницы с Jooml`ы...
На старых страницах надо будет сделать так, чтобы сервер отдавал 404-ую ошибку... Либо сделать переадресацию на тот же материал, только на Joomle.
Помоему так.
Я полагаю, что все вернется со временем...
Робот по прежнему часто заходит на страницы?
Заходил ли на те страницы, которые раньше отдавали 404-ую ошибку?
Помоему тут остается только ждать :)
Как правило создается сетка сателлитов, состоящих не из одного десятка сайтов.
Тогда есть эффект и от ссылок на свой основной проект, а также от продажи ссылок.
Но процесс создания хороших сателлитов не простой, и требует финансовых вложений.
Попробуйте добавить Ваш сайт в Инструмент для Веб-мастеров от Гугл, там есть возможность добавить карту сайта в формате XML - это поможет указать Гуглю на все страницы сайта.
Также помогут пара ссылок с PR-стых сайтов.
Нет, не из одного десятка... а из 4-5 десятков тысяч страниц, все нормально, проблем не замечал.
Да уж, меня бы тоже насторожило столько времени ждать... действительно долго, возможно стоит искать причину в другом? На сайте нет ничего, нарушающего лицензию Яндекса?
К примеру то, что подобных сайтов создано уже тысячи, на похожих движках, с похожим контентом, не представляющим интереса для пользователя...