Поисковые роботы и баннерная статистика

12
ПЛ
На сайте с 14.08.2006
Offline
0
1118

Мне кажется вопрос давно имеет решения и может быть много, но я что-то никак не могу найти их..А сама не допру.

Есть небольшая баннерная системка. Клиент присылает баннер, мы его вешаем на сайте, на него кликают, собирается некая статистика по кликам. Все просто. Одна неприятность - поисковых роботов очень много. Они кликают чаще, чем живые люди..На один нормальный клик - десяток кликов боты делают. Вопрос: как собсвенно отфильтровать боты?

Ссылка через яваскрипт не помогает. Все равно роботы кликают... А что еще остается? Парсить user_agent? но ведь роботов куча немерянная?

Наверняка существует какое-то решение. Посоветуйте что-нибудь, пожалуйста!!!

6666
На сайте с 10.01.2005
Offline
505
#1

полосатая лошадка, закройте баннер роботсом.

Каждое мое сообщение проверила и одобрила Елена Летучая. (c) Для меня очень важно все что Вы говорите! (http://surrealism.ru/123.mp3) .
ПЛ
На сайте с 14.08.2006
Offline
0
#2

А я думала robots.txt позволяет закрывать только каталоги и страницы. Но никак не отдельные элементы...

В любом случае баннеры то генерируется на страницах сайта автоматически...В зависимости от разных критериев... Вобщем, если такое возможно, объясните пожалуйста поподробнее, как?

human
На сайте с 05.02.2004
Offline
78
#3
полосатая лошадка:
А я думала robots.txt позволяет закрывать только каталоги и страницы. Но никак не отдельные элементы...

Ссылка с баннера идёт скорее всего на какой-то обработчик кликов click.php - вот его и закройте он индексации.

Однако, процент ботов, которые понимают javascript - очень низок и многие из них могут не обратить внимание на robots.txt.

Можно проверять, включены ли кукисы :)

С уважением, Кучеров Дмитрий SEO complex — комплексный подход к продвижению (http://seo-complex.ru/) моб. тел.: +7 (495) 506-80-90
ПЛ
На сайте с 14.08.2006
Offline
0
#4
human:
Ссылка с баннера идёт скорее всего на какой-то обработчик кликов click.php - вот его и закройте он индексации.

Так и есть.

Ну хорошо. А как избавится от подсчета показов страниц с баннером, которые вызываются теми же роботами?

HP
На сайте с 30.05.2006
Offline
175
#5
полосатая лошадка:
Так и есть.

Ну хорошо. А как избавится от подсчета показов страниц с баннером, которые вызываются теми же роботами?

Ну это проще простого

Количество показов страниц = общее количество - количество показов роботов :)

А проще просто проверять если зашел робот, то такие заходы не учитывать.

ПЛ
На сайте с 14.08.2006
Offline
0
#6
HruPifPaf:
Ну это проще простого
Количество показов страниц = общее количество - количество показов роботов :)
А проще просто проверять если зашел робот, то такие заходы не учитывать.

А КАК? :) Это ж самое интересное :) Как узнать, что зашел робот?

K
На сайте с 31.01.2001
Offline
737
#7

Проще всего по его User-agent. Программы подсчета статистики знают большинство роботов (вам нужно всего несколько самых главных обжор), а некоторые программы позволяют делать фильтры, исключающие подсчет заходов по тем или иным условиям.

Раз у вас баннерная система, наверное и система статистики есть в исходных текстах, вот ее и надо доработать.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
ПЛ
На сайте с 14.08.2006
Offline
0
#8

Kost, у меня собственная совсем несложная баннерная системка. Юзер кликает на баннер, попадает прежде в скрипт, который собирает статистику и кладет ее в БД, а потом отсылает на нужный сайт.

В статистику входят и клики и показы. И конечно хотелось бы избавится от кликов и показов поисковых роботов.

У меня была мысль парсить user_agent. Но смущало то, что роботов очень много ведь.

А вы не могли бы сказать как выглядят user_agent самых главных "обжор"? Яндекса, Гугла и Мэйла я сама увидела, ибо они уже засветились..

Но вот остальные.. Может где-то списки есть?

А IP адреса у них всегда разные? Может по IP отсекать?

AVV
На сайте с 31.07.2006
Offline
84
AVV
#9
полосатая лошадка:
А вы не могли бы сказать как выглядят user_agent самых главных "обжор"? Яндекса, Гугла и Мэйла я сама увидела, ибо они уже засветились..

"Самые главные обжоры":

Mozilla/5.0 (compatible; Yahoo! Slurp; http://help.yahoo.com/help/us/ysearch/slurp)

StackRambler/2.0 (MSIE incompatible)

Yandex/1.01.001 (compatible; Win16; I)

msnbot/1.0 (+http://search.msn.com/msnbot.htm)

WebAlta Crawler/1.3.18 (http://www.webalta.net/ru/about_webmaster.html) (Windows; U; Windows NT 5.1; ru-RU)

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

+ еще робот Апорта (так и называется, Aport). Заходит редко, но все страницы сразу жрет. Тоже - "обжора".

P.S. У Мейла нет своего робота, он пользуется выдачей Яндекса.

AVV
На сайте с 31.07.2006
Offline
84
AVV
#10
полосатая лошадка:
У меня была мысль парсить user_agent. Но смущало то, что роботов очень много ведь.

Вполне достаточно парсить user_agent на присутствие слов:

"slurp",

"ia_archiver",

"googlebot",

"stackrambler",

"yandex",

"msnbot",

"webalta",

"aport"

Еще проще, парсить user_agent на отсутствие трех основных браузеров:

MSIE, Opera, Gecko (NN, Firefox)

Например: Mozilla/5.0 (Windows; U; Windows NT 5.1; ru; rv:1.8.0.6) Gecko/20060728 Firefox/1.5.0.6

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий