Господа,
Я немного в другую сторону продолжу вашу дискуссию.
Обратите внимание, что у доменов на национальных языках есть очень большой минус - их затруднительно показать человеку, на компьютере которого нет поддержки того языка. А значит, фирмы, имеющие международные связи, будут предпочитать традиционные домены. А такие фирмы - большие деньги, которые многое решают.
FAR Manager v1.70 beta 5 имеет в своем составе очень хороший FTP менеджер, который умеет автоматически восстанавливать перекачку файлов в любом направлении.
Речь идет о том, что если со страницы А у меня есть 10 ссылок, 9 из которых я закрыл через robots.txt, то при НЕучете таких ссылок весь PR уйдет на оставшуюся единственную, что может сильно повлиять на величину ее PR.
Кстати, не стоит забывать про компенсирующий фактор - вероятность случайного прыжка с любой страницы на любую другую. Эта вероятность вполне способна "исправлять" потерю PR на закрытых от индексации страницах.
Алгоритмы ВИЦ и PageRank вероятностно имитируют переходы мнимого посетителя постраницам интернета. Если страница запрещена через robots.txt, это не значит, что пользователь на нее не может попасть. Значит и ВИЦ и PageRank должны переходить и на закрытую от индексации страницу. Другое дело, что они оттуда не возвращаются...
Более того, иная трактовка перехода ВИЦ и PageRank дает потенциальные возможности искусственно нагонять большое значение индекса на нужные владельцу сайта страницы, что противоречит желанию разработчиков максимизировать объективность работы алгоритма.
Резюмируя считаю, что и ВИЦ и PageRank переходят по такой ссылке и благополучно остаются на той странице, т.к. поисковик не имеет возможности получить информацию о ссылках с запрещенной к индексации страницы.
Думаю, это просто совпадение и никакой связи нет.
Думаю, интереснее и полезнее для пользователей будет немного иная вариация: сайты из того же региона, что и пользователь не чтобы выдавались в первых рядах, а чтобы получали прибавку к релевантности - таким образом они будут с большей вероятностью появляться в первых рядах, но не забивать другие сайты.
А географическую привязку сайта брать из каталога - там же все проверены и одобрены самим Яндексом.
Конечно дольше. Так ведь Яндекс сам виноват - нехай было начинать эпопею со склейкой поддоменов. Вот и получили массовую миграцию с поддоменов на домены... А отдуваться индексатору да конечным пользователям, которые теперь будут страдать от низкой скорости появления свежей информации в поисковике.
Для автоматического сабмита я не знаю больше базы, а вот для ручного и с целенаправленного могу предложить свою (подробности см. выше).
Недавно я сделал для нее мини-сайт, где даже можно скачать пробную версию: http://www.lim.btf.ru/reestr/
Если быть совсем точным то на сейчас картинка такая:
Всего адресов в реестре: 2521
Всего проверенных адресов, признанных каталогами: 458
Из них ставят "прямые" ссылки на сайты: 258
Не проверенных вручную, но подозреваемых в проставлении "прямых" ссылок: 282
Ну это просто какой-то странный гибрид поисковика и каталога: www.rundex.ru Чтоб попасть в тот каталог надо попасть в поисковик.