Так как Гугль ищет и в URL'ах страниц, то можно сделать и такой запрос:
avc site:www.avc.ru
[This message has been edited by wolf (edited 17-01-2002).]
У моего - 6/10. Дата периодически обновляется. Последний раз видел ее вчера. Только вот Fresh, кажется, уже не пишут - просто ставят дату.
Ясно. Меня дезориентировал Яндексовский бар.
Кстати, созрел вопросик. Кто точно знает, влияет ли ВИЦ (PageRank) страницы, на которой расположена текстовая ссылка, на ссылочное ранжирование в Яндексе и Гугле. Другими словами, считается ли текст ссылки весомее, если она расположена на странице с высоким ВИЦ (PageRank)?
[This message has been edited by wolf (edited 16-01-2002).]
А зачем он тебе нужен? Счетчики накручивать?
Арифметика простая. В отчете за неделю учитываются уникальные посетители за всю неделю, а не складывается посещаемость семи дней недели. Если я буду ходить на Рамблер каждый день, то к посещаемости за каждый день я буду добавлять одного посетителя. Однако к посещаемости за неделю я добавлю тоже всего одного посетителя, а не семь посетителей, как было бы в случае простого сложения посещаемости семи дней недели.
[This message has been edited by wolf (edited 15-01-2002).]
Почитав внимательно A Standard for Robot Exclusion обнаружил, что все-таки robots.txt делает запрет на посещение роботом страниц сайта:
...Disallow The value of this field specifies a partial URL that is not to be visited....
Не могли бы Вы пояснить в чем именно: в том, что в яндексе аналог гуглевского PageRank'a называется "взвешенным индексом цитирования" или в том, что он рассчитывается для всего сайта. А может, и в том, и в том? А что ж тогда означает "взвешенный CY" в новом яндексовском баре, который одинаков для страниц всего сайта (либо директории на сайте). Всего лишь рекламный трюк на основе идеи, подсмотренной на гуглевском тулбаре?
Вообще-то, насколько я понимаю, robots.txt делает запрет на индексацию, а не на посещение страницы роботом. Это Яндекс у нас такой распальцованный. Так что я думаю, если твой робот не будет генерить огромный траффик (т.е. не будет использоваться в промышленных масштабах), то претензий к нему быть не должно.
Почему это информация о каждой странице должна апдейтится ежедневно? Просто, наверное, информация о конкретной странице теперь апдейтится сразу после посещения ее роботом, а не как раньше, когда все страницы апдейтились одновременно раз в 28 дней независимо от даты посещения роботом каждой.