Имена роботов

12
Sergey Petrenko
На сайте с 23.10.2000
Offline
482
24684

Накопал список имен роботов. Для клоакинга он, конечно, не годится. Его полезно использовать для написания robots.txt. Если кто знает больше имена, дополните список, пожалуйста.

AltaVista: Scooter

Infoseek: Infoseek

Hotbot: Slurp

AOL: Slurp

Excite: ArchitextSpider

Google: Googlebot

Goto: Slurp:

Lycos: Lycos

MSN: Slurp

Netscape: Googlebot

NorthernLight: Gulliver

WebCrawler: ArchitextSpider

Iwon: Slurp

Fast: Fast

DirectHit: Grabber

Yahoo Web Pages: Googlebot

Looksmart Web Pages: Slurp

PJ
На сайте с 24.10.2000
Offline
1
#1

Originally posted by Gray:
Накопал список имен роботов.

Зачем они нужны, и причем здесь robot.txt?

Sergey Petrenko
На сайте с 23.10.2000
Offline
482
#2

Полезно, когда делаешь дорвеи, заточенные под разные машины. Кладешь их на сайт, пишешь robots.txt. В нем расписываешь, какому агенту какой файл можно читать. В поле User-agent надо при этом указывать имя робота, которое и указано в списке.

Вообще, есть у меня классное руководство на английском по написанию такого файла. Дойдут руки, переведу, выложу.

E
На сайте с 24.10.2000
Offline
111
#3

А еще это полезно при применении технологии маскирования страниц (page cloaking).

PJ
На сайте с 24.10.2000
Offline
1
#4

Originally posted by Gray:
Полезно, когда делаешь дорвеи, заточенные под разные машины. Кладешь их на сайт, пишешь robots.txt. В нем расписываешь, какому агенту какой файл можно читать. В поле User-agent надо при этом указывать имя робота, которое и указано в списке.

Вообще, есть у меня классное руководство на английском по написанию такого файла. Дойдут руки, переведу, выложу.

Понятно. Я думал, что в этом файле просто указываешь страницы которые не стоит индексировать.

Вообще трудно представить зачем не надо индексить некоторые страницы.

Sergey Petrenko
На сайте с 23.10.2000
Offline
482
#5

Затем, что, если ты делаешь дорвеи, заточенные под разные SE, то они все равно, как правило, очень похожи. Если, например, Алтависта найдет кучу таких страниц, она сочтет это спамом и не будет ничего индексить вообще. Файлом robots.txt ты определяешь, какой робот что читает.

Sergey Petrenko
На сайте с 23.10.2000
Offline
482
#6

Originally posted by Evgenij:
А еще это полезно при применении технологии маскирования страниц (page cloaking).

Нет, Женя, этиих имен недостаточно. Для клоакинга надо знать IP роботов, потому, что в этом случае работает CGI скрипт, который не читает имен роботов.

PJ
На сайте с 24.10.2000
Offline
1
#7

Originally posted by Gray:
Затем, что, если ты делаешь дорвеи, заточенные под разные SE, то они все равно, как правило, очень похожи. Если, например, Алтависта найдет кучу таких страниц, она сочтет это спамом и не будет ничего индексить вообще. Файлом robots.txt ты определяешь, какой робот что читает.

спасибо за науку

F
На сайте с 28.10.2000
Offline
47
#8

Кстати есть статья на эту тему вот прямая ссылка :

[This message has been edited by Gray (edited 28-10-2000).]

Усложнять - просто, упрощать - сложно.
ICQ 399-750-045
Sergey Petrenko
На сайте с 23.10.2000
Offline
482
#9

Фрост, ты меня уже задолбал ссылками на свой сайт. Я тебя звал не спамить на борде.

Если есть, что сказать - говори.

F
На сайте с 28.10.2000
Offline
47
#10

хммм я не спамил , а дал ссылку по теме.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий