я думаю мониторинг позиций по ключевым запросам по которым приходили с гугла даст вам ответ на вопрос
вообще со всех поисковиков сильно ниже среднего - сервер не падал?
на такую мысль наталкивают живые примеры сайтов, которые создавались просто что бы было куда отправить клиента почитать - копипейст контент, не обновляются по году, есть кое-где внешние ссылки, НО никогда не добавляли адурелку и не проверяли интенсивно индексацию (может пару раз проверяли по точному вхождению, и все) - много таких сателитов для "почитать по ссылке" годами в индексе и никогда не вылетали, а тут вон у народа без внешних ссылок вылетают...яндекс ведь может посмотреть весь список сайтов проверяемых с одного ip/компа
Может и параноя, но стараюсь если уж проверяю с одного компа много своих сайтов разбавить их кучей чужих - пусть лучше яндекс видит проверку 50 ресурсов среди которых крупные трастовые сайты, чем увидит что кто-то проверил 10 сателитов с одного ip
проводил эксперимент - два сайта выложены одновременно на ру и су и одновременно добавлено несколько ссылок - все страницы попали в индекс синхронно (разница в один день)
так что су ничем не хуже ру для яши..а вот для гугла су вроде бы не привязывается иногда к русским сайтам
на наличие в индексе скопом проверяли с одного компа всю сетку?
читал у кого-то в блоге про эксперимент - суть была в глобальном распространении статьи (полные копии были разосланы куда только можно) через месяц в индексе гугла было больше 5000 копий статьи на разных ресурсах, а потом через 3 месяца индекс почистился и осталось 30-40 копий - такую операцию проводили пару раз
а при чем тут яндекс и то как сапа индексирует Ваш сайт?? просто если страницы не в индексе сайт модерацию не пройдет..но при внесении страниц в сапу считают все страницы где есть код - читайте доки
что-то странное - про сателитам, на которые ставилось чуток ссылок чтобы проиндексировались тиц 10, а по проекту на который целенаправленно ссылки в большом количестве размещались 0 уже второй ап
вообщем то уже все нормальные сайты в сапе закрыли эту проверку - пропишите явно страницу и все в вызове ссылок...
если сайт не может пройти проверку на подставление "левого" параметра значит ВМ совсем е заботится о своем сайте
конечно страница с PR
и если на страницу много внешних ссылок то уровень впринцыпе вообще не важен (а при наличии PR я думаю и ссылок на эту страницу много) - хоть с сайта вообще нельзя попасть на эту страницу - только прямым вбиванием адреса страницы, но на нее стоит куча внешних
я думаю вторая ссылка скорее всего проиндексирется быстрее первой
не знаю как сейчас, но год назад я от них ушел
вопервых проблемы с размещением большого количества сайтов - всюду ограничения и неудобства
панель управления мягко говоря неудобная
вот чему можно порабоваться - "Общий объем баз данных mySQL/pgSQL нет ограничений (не входят в квоту)"
с доступом к БД никогда проблем не было - очень быстро даже для внешних конектов
а вот с загрузкой страниц сайта иногда наступал полнейший колапс - html страничка "думала" по секунде (это не всегда а именно иногда - но очень раздражало - поэтому и ушел)
Причем в саппорте сказали что они ничего сделать не могут - типа сервера иногда настолько загружены - хотите лучше - платите (это при том что висело пара сайтов с посещаемостью 50 - то есть от меня нагрузки никакой)
PS на тестовый период у вас будет все "летать" - помоему на первые недели 2 дают приоритет на использование ресурсов