Painkill

Painkill
Рейтинг
6
Регистрация
29.08.2005
Должность
...
Интересы
CoMpUtErS
Доврый день,

Google использует 2 робота для индексации сайтов - Freshbot и Deepbot - названные так в соответсивии с их основными назначениями.

Deepbot приблизительно раз в месяц (иногда чаще) проходит всю сеть и результаты этого индксироваия собственно и отражаются в основном индексе Google. Поэтому Вы и видите его в Ваших статитиках реже.

Freshbot посещает сеть постоянно, и получается так *называмый Everflux* . Он ответственен за нахождение и уточнение свежих содержаний как новости, новые страницы или сайты, блоги, новое в форумах и т.д. Новое проверяет он часто, чтобы увидеть, будут ли регулярные уточнения. Вероятно он вносит всё новое в отдельную базу данных, которая актуализируется каждый раз когда начинается новый цикл. Поэтому Вы видите его в Ваших статитиках намного чаще.

При этом вначале Freshbot и основной индекс смешиваются для получения серпов. Может получится так, что новый контент появляется быстро в поиске, но и быстро исчезает для того, чтобы через два-три месяца появится в актуализированном основном google Index.

В одно время Freshbot использовал адресы интернета начиная при 64. и адресы Deepbot начиная с 216.; но с середины 2003 роботы Google *Freshbot* приходят к Вам с машин 64. * или 66. *

Вс. хор

Т.е, насколько я понял, основная задача "СВЕЖЕГО" робота установить насколько часто-обновляемым является ресурс?

Или периодичность обновлений?

webcat:
Если номер типа 66.249.93.104 - это Freshbot, временный. Если типа 216.239.59.104 - это Deep Crawl,правильный

Интересно...а откуда такая инфа?

Сегодня с 64.233.166.136 зашел некто
UP.Browser/6.1.0.1.140 (Google CHTML Proxy/1.0)

Вполне может быть что Гугл начинает потихоньку тестить свой браузер...

блин! создашь тему минус, задашь одмин вопрос в двух ветках минус, кто вообще решает бесполезная тема или нет? тем более что количество просмотров у нее достоиное!!

а вы наверное ждёте участи первого сайта

)))

запоздало....уже все решено

при таком количестве кликов достаточно для репрезентативности исследований мониторить только часть кликов. Да и компьютерные ресурсы сберегаются

а не явится ли это гандикапом для других сайтов, клики по которым не мониторятся?

ну та что? мысли закончились?

я не думаю, я предполагаю и проверяю свои предположения, а если оказываюсь неправ, то принимаю это.

вот сейчас думаю что был неправ, хотя окончательной уверенности пока нет

ну что ж после чистки линковой страницы, и уведомления яндексу, все пошло на лад.

"причина ликвидирована...вопрос о возвращении рассмотрим через месяц...."

кстати может здесь кто объяснит почему на http://www.google.com/addurl/ "контрольный текст" это всего навсего фикция?

Всего: 82