Тут просто идея была следущая - на сайте этого текста совсем нет... не где ...
если он по этому запросу появляется пусть даже не в серпе - значит ссылка подействовала... засекаешь время от прихода робота до появления в выдаче - Вуаля :)
А запрос можно специальный придумать, например с кучей ошибок в слове ... или еще что нить такое ...
Эо можно проверить поставить ссылку с уникальным контентом на любую страницу дождаться прихода робота на страницу где стоит ссылка, а потом смотреть выдачу страницы, на которую эта самая ссылка ведет по этому же уникальному запросу... (только главное что бы этого запроса не было на той странице, куда ведет ссылка для чистоты эксперимента).
Потом проверяешь выдачу, например каждый день, когда по этому запросу выйдет страница, на которую ссылались - ты и получишь время, сколько проходит времени со дня ПРИХОДА РОБОТА на страницу со ссылкой.
Хотя тут кроме времени ссылки важны также и другие показатели, время жизни ссылающегося сайта, показатели этого сайта … и прочее.
В принципе не как не повляет.. Поисковая система определяет главным зеркалом или с Www или без ... и соответсвенно под этими доменами и индесирует сайт.
Если есть желание помочь определить один из доменов :
можно:
1. Поставить Host:glavnoezerkalo.ru В robots.txt.
2.Можно ставить жирные внешние и внутренние ссылки только на главное зеркало
3.Можно через редирект - но не рекомедуется если уже определенно зеркало и вы с него делаете редирект на тот домен который вы бы хотели сделать главным.
Это самое простое...
Мне кажется что лучше все же делать главным с www потому что иногда встречал при регистрации в некотрых каталогах автоматически простовляют ссылку с www.
А если искать с www то есть - смотри 19 место
http://www.yandex.ru/yandpage?&q=279729661&p=1&qs=serverurl%3Dwww.usterra.ru
У меня, например 1 поддомена четвертого уровня лежит в Яке, при этом все остальные поддомены (и главный домен их в яке нет) спокойно выдает по тем запросам, которые для них являются наиболее релевантными. При этом показатели ТИЦ, PR у них отличные друг от друга и от домена 3 уровня тоже.
to lika!
com.ua совсем не бесплатный домен.... очень даже платный!
Статистика рамблера лучше !!
а как быстро Ваш скрипт работает ???
Скрытый каталог ??? это что ???
Возможно и были но врядли, скорее всего они были и в Яке просто это было не отмеченно, как сейчас !!
помойму только по регистрации в каталоге хотел сходу найти информацию об этом не нашел !!
но у меня есть сайт в домен kiev.ua и его нет в Яке - так когда ставишь галочку искать по Киеву - сайта нет ....
По-моему это как раз очень даже важные страницы в плане Сео - там есть низкочастотники на которых можно поднимать трафик(могут искать например услугу) или же продвижение фоток кстати здесь была ветка как это делать !!
к таму же насколько мне известно роботы и так с трудом ходят на такие многоуровневые урлы...
но, а если таки решил закрыть без использования .htaccess то это можно сделать
Если вынести все эти страницы в одну папку - то можно закрыть черев robot.txt
Можно использовать атрибут <a href=".ru/tour/italy/roma/info/31.html" rel="nofollow">
Фото Рима
</a> единственное это работает скорее всего только для гугла и я не уверен что эта страница не будет проиндексирована.
прочитать про это можно тут например: http://blogs.byte-force.com/xor/archive/2005/01/21/457.aspx
на конец можно использовать тег <noindex>ccылка</noindex> правда не уверен вовсе есть ли такой тег и работает ли он
и для каких роботов - но может и есть!!!