amph

Рейтинг
106
Регистрация
10.01.2005

Olinka, возможно, засчитываются, но не показываются, а второй критирий -вообще сомнителен: у меня по одному запросу на разных позициях выскакивают не то что субдомена, а отдельные страницы. Это -вопрос качества контента...

Я не говорил, что отдельно показываются, а говорил, что с них ссылки засчитываются:) Кидаю запрос для примера

Уegavolt, у меня в каталог внесен только сам сайт. Папки, я конечно, не вношу. Я сам решил что это как бы субдомены. Адрес щас скину в личку

funnybunny, согласен, и даже более того, если ЕСТЬ обособленный сервис, вполне достаточно не субдомена, а обычной папки -Я будет считать ее как бы субдоменом и засчитывать с нее ссылки (конечно, не как жирные). По крайней мере, мне так кажется: у меня на сайте есть форум, каталог и галерея -фактически они существуют в виде папок, но Я отдельно показывает ссылки с них и пишет "еще ссылок с этого сайта"...

Алексей Гурешов, я прослежу за Вашим паучком, ночью не обещаю, а утром точно. А насчет внешних ссылок -приятно слышать, но мой сайт далеко не чемпион: я вобще не меняюсь ссылками. Но Бог с ним, хочу высказаться как пользователь насчет многословных запросов - если по ним действительно будет релевантная выдача, для меня это станет прорывом: действующие поисковики настроены на поэтапный поиск, найти с разгону инфу по трехсловному запосу практически нереально, именно поэтому в однословных топах давка...

Алексей Гурешов, спасибо за реакцию - теперь намного лучше, хотя ситуация еще не выровнялась до конца. Узнав, что это действительно вебальта, я не стал ее запрещать, так что демонстрирую кусочек лога:

85.21.196.179 - - [02/Feb/2006:01:24:31 +0300] "HEAD /robots.txt HTTP/1.1" 200 - "-" "WebAlta Crawler/1.2 (http://www.webalta.ru/bot.html)"

85.21.196.179 - - [02/Feb/2006:01:24:31 +0300] "HEAD /robots.txt HTTP/1.1" 200 - "-" "WebAlta Crawler/1.2 (http://www.webalta.ru/bot.html)"

85.21.196.179 - - [02/Feb/2006:01:24:31 +0300] "GET /robots.txt HTTP/1.1" 200 1036 "-" "WebAlta Crawler/1.2 (http://www.webalta.ru/bot.html)"

85.21.196.179 - - [02/Feb/2006:01:24:31 +0300] "GET /robots.txt HTTP/1.1" 200 1036 "-" "WebAlta Crawler/1.2 (http://www.webalta.ru/bot.html)"

BUFO, Спасибо - нет, я еще не запретил, просто только сегодня заметил. Суть в многократном и одновременом запросе -ваще я, конечно, запрещу, но любопытно знать - это webalta шарит или хулиганит кто-то...

Может, это офтоп, но крик души: меня лично паук вебальты совершенно задолбал - за секунду по 10 раз просит robots, а задень - до 200. У кого-нибудь еще такое происходит? (в логах пишет "WebAlta Crawler/1.1 (http://webalta.net/bot.html)", хотя соответствующая страница выдает серверный еррор...

basterr, надеюсь к Вам это отношения не имеет, но ваще-то Гугл взаимные ссылки теперь фильтрует...

Если Вы следите по тулбару, скорее всего, это просто глюк. Подождите пару дней:)

Всего: 756