Налицо явное передёргивание... Ссылки, проплаченные Яндекс-Директу сейчас очень даже выделяются, а вот ссылки проплаченные Агаве как раз не выделялись. А кто в этом был виноват с точки зрения среднего пользователя, попавшего на проплаченную страницу? Яндекс. Пользователь (к своему счастью) даже слово "Агава" может не знать...
Я не совсем, честно говоря, понимаю, на что именно обижаются представители Агавы...
Представим себе такую ситуацию: вот ездят по городу автобусы, некоторые из которых со всех сторон раскрашены рекламой. Не возникает вопроса, кто продаёт рекламное место --- автобусный парк, либо народ, который они на это уполномочили. И вот появляются бодрые ребята, специалисты по граффити, --- штаны на два размера больше, бейсболки, полны карманы баллончиков с краской. И вместо того чтобы поганить автобусы своими стандартными картинками, начинают рисовать на них рекламу. За деньги. И предлагать всем желающим свои услуги. Кто при этом в .опе? Автобусный парк, т.к. он содержит "носитель рекламы", но теряет при этом свой доход от её продажи... И если бы хмурые рабочие гипотетического парка поймали бы гипотетических специалистов по граффити, последние бы так легко как Агава сейчас не отделались...
Навскидку:
ну и навертели... MultiViews для таких использовать --- примерно как молотком шурупы заворачивать. Он используется для выбора наиболее подходящего представления одного документа.
Гипотеза об ошибке такая: браузер, как правило выдаёт заголовок
Accept: разная/хрень, q=1.0; */*, q=0.1
Поисковику */* не нужно, потому он просит только
Accept: разная/хрень
Введённый в заблуждение MultiViews'ом сервер видит файл типа application/x-httpd-php и в первом случае отдаёт результаты его работы, а во втором --- ошибку 406, т.к. документ поисковику явно не подходит.
Второе решение, хм, тоже через тыльную часть сделано. Я бы предложил так:
RewriteEngine On RewriteBase /portal/ RewriteRule ^([a-z]+)/([0-9]+)/?$ /portal.php?id=$2&kat=$1 [L] RewriteRule ^([a-z]+)/?$ /portal.php?kat=$1 [L]
в связке Apache/PHP --- getallheaders()
Да, с роботами я тупил. :D
Но если заглянуть в rfc2616
то станет понятно, что робот Яндекса вполне может отдавать заголовок типа Accept-Charset или Accept-Language...
Надо бы из скрипта тогда отавать ещё Content-type с правильным языком и кодировкой.
Тут, ЕМНИП, уже выдвигалось предположение, что робот I (картиночный) выдаёт заголовок типа
Accept: image/*
Естественно при запросе документа типа text/plain (например robots.txt) и text/html (содержимое каталога) сервер отвечает ему кодом 406.
Я бы сказал, что у них генерация каталога взглючнула, а вовсе не индексы цитирования слетели... Вот результат поиска нашего ИЦ
Приятно, конечно, что коллеги так внимательно наблюдают за нашими показателями. :D
сникерс супер щас вроде бы рекламируют по телевизору, а газета "из рук в руки" --- весчь весьма популярная, но
Очевидно, что если речь о специализированной программе, "заточенной" под конкретный сайт, то против неё мало что сделаешь. Но большая часть спаммеров --- люди со способностями к производительному труду (в частности написанию программ)... эээ... ниже средних. И, следовательно, пользуются они готовыми решениями, которые "задавить" как раз можно.
А страница такая тоже покатит. :) В качестве дополнительной меры. :)
А какими программами щас спаммеры пользуются? User-agent все они, я так понимаю, подделывают... Смотрел отчёты по логам, там только одно подозрительное название: EmailWolf.
Что использует простой русский спаммер?
Т.е. та же ловушка, только технически не слишком сложная? Типа, вспоминая военную кафедру, "пассивные помехи".
А если активные: пишем страницу, содержащую много "адресов", запрещаем её через robots.txt/NOINDEX, ссылки ставим через однопиксельный gif... Обычный пользователь не зайдёт, нормальный поисковик тоже. Всех кто зашёл --- давим. Есть у кого-нибудь опыт использования?