Olinka, возможно, засчитываются, но не показываются, а второй критирий -вообще сомнителен: у меня по одному запросу на разных позициях выскакивают не то что субдомена, а отдельные страницы. Это -вопрос качества контента...
Я не говорил, что отдельно показываются, а говорил, что с них ссылки засчитываются:) Кидаю запрос для примера
Уegavolt, у меня в каталог внесен только сам сайт. Папки, я конечно, не вношу. Я сам решил что это как бы субдомены. Адрес щас скину в личку
funnybunny, согласен, и даже более того, если ЕСТЬ обособленный сервис, вполне достаточно не субдомена, а обычной папки -Я будет считать ее как бы субдоменом и засчитывать с нее ссылки (конечно, не как жирные). По крайней мере, мне так кажется: у меня на сайте есть форум, каталог и галерея -фактически они существуют в виде папок, но Я отдельно показывает ссылки с них и пишет "еще ссылок с этого сайта"...
Алексей Гурешов, я прослежу за Вашим паучком, ночью не обещаю, а утром точно. А насчет внешних ссылок -приятно слышать, но мой сайт далеко не чемпион: я вобще не меняюсь ссылками. Но Бог с ним, хочу высказаться как пользователь насчет многословных запросов - если по ним действительно будет релевантная выдача, для меня это станет прорывом: действующие поисковики настроены на поэтапный поиск, найти с разгону инфу по трехсловному запосу практически нереально, именно поэтому в однословных топах давка...
Алексей Гурешов, спасибо за реакцию - теперь намного лучше, хотя ситуация еще не выровнялась до конца. Узнав, что это действительно вебальта, я не стал ее запрещать, так что демонстрирую кусочек лога:
85.21.196.179 - - [02/Feb/2006:01:24:31 +0300] "HEAD /robots.txt HTTP/1.1" 200 - "-" "WebAlta Crawler/1.2 (http://www.webalta.ru/bot.html)"
85.21.196.179 - - [02/Feb/2006:01:24:31 +0300] "GET /robots.txt HTTP/1.1" 200 1036 "-" "WebAlta Crawler/1.2 (http://www.webalta.ru/bot.html)"
BUFO, Спасибо - нет, я еще не запретил, просто только сегодня заметил. Суть в многократном и одновременом запросе -ваще я, конечно, запрещу, но любопытно знать - это webalta шарит или хулиганит кто-то...
Может, это офтоп, но крик души: меня лично паук вебальты совершенно задолбал - за секунду по 10 раз просит robots, а задень - до 200. У кого-нибудь еще такое происходит? (в логах пишет "WebAlta Crawler/1.1 (http://webalta.net/bot.html)", хотя соответствующая страница выдает серверный еррор...
basterr, надеюсь к Вам это отношения не имеет, но ваще-то Гугл взаимные ссылки теперь фильтрует...
Если Вы следите по тулбару, скорее всего, это просто глюк. Подождите пару дней:)