как отсекать всех роботов?

12
FM
На сайте с 21.04.2004
Offline
125
1520

столкнулся с проблемой, не знаю как отсечь всех роботов по юзер агенту ...

есть что то у них одинаковые, или пойти другим путём разрешить только для юзер агента бравзера?

[Удален]
#1
столкнулся с проблемой, не знаю как отсечь всех роботов по юзер агенту ...

Можно поподробнее?

wayfarer
На сайте с 28.12.2003
Offline
141
#2

User-Agent: *

Disallow: /то что нужно запретить

Такая конструкция в роботсе не поможет? Или требуется какоето нетривиальное решение?

Предпочитаю наличку
FM
На сайте с 21.04.2004
Offline
125
#3

нет нет, это не тот случай.

я считаю количество кликов, но в это количество, как оказалось входят и вызовы страниц роботами, которые вызываю страницы больше всех....

а клики то оплачиваемые ...

wayfarer
На сайте с 28.12.2003
Offline
141
#4

FreeMarket, реализуйте через javascript

M
На сайте с 10.04.2005
Offline
6
#5

Анализируйте логи сервера на предмет обращения к robots.txt.

Результат - список всех роботов, заходивших на ваш сайт. Ну и по списку...

Фрилансер. php-скрипты, html-верстка icq: 251-690-001 e-mail: office собака era.izhnet.ru
FM
На сайте с 21.04.2004
Offline
125
#6
Как писал wayfarer
FreeMarket, реализуйте через javascript

гугль понимает ведь джава скрипт ...

deadcat
На сайте с 04.04.2005
Offline
27
#7

Я делаю это так:


# robots detecting
$remote_addr=$HTTP_SERVER_VARS['REMOTE_ADDR'];
$remote_host=gethostbyaddr($remote_addr);
$robot=FALSE;
if(strpos($remote_host,'yandex')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'google')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'rambler')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'aport')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'search')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'whois')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'find')!==FALSE)$robot=TRUE;
if($robot)
{
тут можно что-то сделать...
}
valentin shergin research laboratory (http://shergin.com), erratum machine – самоорганизация документов, cms, cmf (http://erratum.ru)
FM
На сайте с 21.04.2004
Offline
125
#8
Как писал deadcat
Я делаю это так:

# robots detecting
$remote_addr=$HTTP_SERVER_VARS['REMOTE_ADDR'];
$remote_host=gethostbyaddr($remote_addr);
$robot=FALSE;
if(strpos($remote_host,'yandex')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'google')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'rambler')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'aport')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'search')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'whois')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'find')!==FALSE)$robot=TRUE;
if($robot)
{
тут можно что-то сделать...
}

я также делаю, но отсечь всех роботов всёравно не могу, приходят пауки о которых даже не знаю ...

deadcat
На сайте с 04.04.2005
Offline
27
#9

Думаю, можно так на JS написать ссылки на страницы, что ни один робот не поймет... Главное там поизвращаться внутри, используя механизмы которые в принципе недоступны урезаным интерпретатором JS в поисковых машинах, например вызов функции по таймауту...

Тем самым робот никогда не прознает про наши заветные золотые ссылки...

И конечно методы надо комбинировать, тогда минимизируем потери...

tester999
На сайте с 21.10.2004
Offline
149
#10

Написать так (см. исходник страницы):

<a href="&#116;&#101;&#115;&#116;&#46;&#104;&#116;&#109;">test</a>

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий