Cherny

Рейтинг
120
Регистрация
19.09.2001
картинку счетчика можно тогда грузить локально, чуть улучшается время отображения страницы

Можно этот момент подробнее.

ZyBorg/1.0 банить не стоит.

Может WiseNut.com оживет когда-нибудь.

Так и закрывать:

Disallow: /page?id

:)

Если верить этому сервису, то у поисковиков большая катаракта и астигматизм

Предложите что-нибудь получше ;)

Таким сервисам, ИМХО, не стоит верить, слишком много факторов остается за бортом, да и у каждого робота свой "взгляд" на вещи. :)

Сходил, посмотрел, не понял.
Это вообще зачем?

Посмотреть на сайт глазами поисковика. :)

Для тех же целей можно воспользоваться Lynx

Вот, например:

http://www.delorie.com/web/

Cherny, а если нужно всем запретить, например, только 1 URL?
Просто
User-agent: *
Disallow: /url.htm

? Я прав?

Прав.

Пардон, стандарта не помню.

Вот пример для этого случая:

To allow all robots complete access

User-agent: *

Disallow:

Or create an empty "/robots.txt" file.

А смысла такой директивы и подавно не понимаю.

Приведу простой пример: необходимо всем роботам запретить индексирование, а роботу рамблера -- разрешить. Выглядит как-то так:

User-agent: StackRambler

Disallow:

User-agent: *

Disallow: /

Первая директива вообще способна запретить все. Никогда не пробовал оставлять Disallow пустой, но это вполне можно принять за запрет индексировать весь сайт. Зачем оно надо?

Пустая директива Disallow разрешает индексирование всего. Об этом говорится в стандарте.

Для запрета индексирования всего надо ставить слеш:

Disallow: /

В данном конкретном случае первые две строки можно опустить.

Оттуда можно подумать об автобусе - это три часа, кажется, езды.

На автобусе часов пять будет до Керчи, причем следует учесть, что не так часто из Симферополя ходят эти автобусы.

Ближе к лету смогу узнать поточнее.

Всего: 1011