Большое спасибо за советы!!!
Kost, у меня собственная совсем несложная баннерная системка. Юзер кликает на баннер, попадает прежде в скрипт, который собирает статистику и кладет ее в БД, а потом отсылает на нужный сайт.
В статистику входят и клики и показы. И конечно хотелось бы избавится от кликов и показов поисковых роботов.
У меня была мысль парсить user_agent. Но смущало то, что роботов очень много ведь.
А вы не могли бы сказать как выглядят user_agent самых главных "обжор"? Яндекса, Гугла и Мэйла я сама увидела, ибо они уже засветились..
Но вот остальные.. Может где-то списки есть?
А IP адреса у них всегда разные? Может по IP отсекать?
А КАК? :) Это ж самое интересное :) Как узнать, что зашел робот?
Так и есть.
Ну хорошо. А как избавится от подсчета показов страниц с баннером, которые вызываются теми же роботами?
А я думала robots.txt позволяет закрывать только каталоги и страницы. Но никак не отдельные элементы...
В любом случае баннеры то генерируется на страницах сайта автоматически...В зависимости от разных критериев... Вобщем, если такое возможно, объясните пожалуйста поподробнее, как?