Есть ещё вариант слать наложенным платежом, если достаточный оборотный фонд (т.к. деньги обратно идут по 35-40 дней). Ну и обязательно надо спрашивать подтверждение от покупателя, что ему действительно нужен этот заказ, а не просто так кнопочку в интернете нажал. Это нужно, чтобы уменьшить процент брака (возвратов, за которые платит уже магазин, а не отказавшийся покупатель).
Да, согласен, это всё очень не совершенно. Я обратил внимание на этот подход, т.к. он может быть проще для пользователя (не все понимают, что когда написано "введите код, который видите на рисунке", то не надо путать маленькие и большие буквы, добавлять от себя лишние симводы и т.д.). А уж отличать кошек от других зверей (при нормально качестве фото), люди могут гораздо лучше, чем бот :). Автоматический он в том смысле, что не человек усилием мысли отличает, что опять спамбот пришёл, а программа "сама" не примет левую регистрацию (как и при классическом подходе с одной картинкой).
Ладно, посмотрим, что будет удобнее. Мне показалось интересным поднять эту тему, т.к. задача отсева ботов без потери людей (что важно, например, интернет-магазинам) встаёт всё жёстче.
1) Всё очень индивидуально. Например, надо смотреть ещё на количество внешних (не Ваших) ссылок на этих сайтах с ПР7-10. Да и вообще, ПР7 бывает разный (очень большой люфт). Прежде всего, надо смотреть на то, где эти сайты взяли такой ПР.
2) Список ПР можно смотреть, например, http://google.codeby.net/
(есть ещё множество аналогичных сервисов)
Да база-то такая собирается легко - раз в месяц просматривать сотню самых активных "качков", да добавлять в список нужных. По сути ведь это - белый список (адреса, которые не подвержены автоматическим санксиям).
Кстати, в природе есть куча мест, где оно уже лежит в каком-то виде:
http://bot.tixit.ru/user_agent/20/iplist/
Опять же у Гринвуда упоминается:
http://bloggreenwood.com/comments/D288_0_1_0_C/ (первая ссылка)
Но мне как-то было проще составлять свой список. Так оно надёжнее :)
Ведь задумывалось это всё только для того, чтобы всякий DiscoPump обламывать, когда его на сайт натравляют. А то уже устал от воров контента...
У-у, совсем клоакинг какой-то получается. не надо так делать! во всяком случае, не стоит такое советовать.
А что касается "лениться" - многие оптимизаторы частенько ходят под юзерагентом яндекса :)
Хорошо, давайте попробуем.
Мысль такая: много качать стоит позволять только поисковым роботам (и то, только интересным мне). Все остальные пусть качают по формуле представленной выше (<= 10 запросов в секунду, и т.д.). Ясно, что пользователь такие объёмы качать не станет. А ботам, которые мне не нужны - временный бан за превышение этих лимитов.
А интересных мне ботов (котлет :) ) я и так знаю (по IP). Это, конечно, можно называть клоакингом, но согласитесь, что словить за это санкций - очень маловероятно. Во всяком случае, это позволяет затруднять жизнь оптовым ворам контента (новичкам). Т.к., судя по логам, они смиряются с низкой скоростью скачивания с моих сайтов, после чего благополучно отваливают.
Вам смешно, а я, по молодости ещё, за пару месяцев продвижения сайта одного мелкого провайдера получил трафика от него на несколько лет вперёд. Только растратил уже всё... Мне тогда деньги как раз были не нужны :)
Тематические счётчики с рейтингом иногда дают нехилый трафик, поэтому их стоит оставить. Рамблер топ100 тоже даёт нормальный трафик, если удалось подняться в нужной категории, но уже не из-за узкотематичности, а из-за большой своей посещаемости. С ракса ощутимых посетителей получить не удавалось, равно как и с мэйлру. Остальные счётчики - это, по-моему, вообще трата времени.
Как уже сказал Sergey, иногда надо показать независимые результаты заказчику/партнёру, тогда лог-анализаторы не годятся, а внешний незаинтересованный счётчик - как раз.
Ага, это после второго обеда начинается :d
По теме: хорошо ещё покимарить в машине иногда. Ну у того заведение, в которое как раз питаться и ездил :)
О! Родилась аналогия обо всём этом:
Если Вы пишите книги под двумя псевдонимами, а потом переживаете, что оба они вошли в топ1000 самых читаемых авторов, но не вошли в топ100, то у Вас морды расклеяны :)
Если же Вы выбрали основной псевдоним для своего творчества, то все Ваши читатели в соцопросах будут радостно называть именно его - следовательно этот один поднимется на более высокое место в рейтинге.
Теперь про проблемы из-за несклеянности: шибко начитаный бот может ознакомиться с трудами обоих "писателей" (т.е. обоих псевдонимов), сказать: "где-то я уже это видел", грубо добавить: "повтор мыслей и сплошной плагиат", после чего со скепсисом будет относиться к обоим.
Более того, когда Вы производите склейку, часть постоянных читателей это дело не заметят, а заметят, что их любимый автор исчез. И пока они поймут, что он переименовался, продажи по "склеянному" псевдониму будут меньше, чем суммарные продажи по обоим псевдонимам до склейки. И выправится это не очень быстро. Но за то, когда все читатели просекут, что произошла склейка, то они все будут покупать все книги этого писателя.
В реале всё не совсем так, но аналогия, имхо, близкая. Надеюсь, войдёт в историю объяснения пользы и рисков склейки на пальцах :d