Iso

Рейтинг
58
Регистрация
22.10.2005

Есть ещё вариант слать наложенным платежом, если достаточный оборотный фонд (т.к. деньги обратно идут по 35-40 дней). Ну и обязательно надо спрашивать подтверждение от покупателя, что ему действительно нужен этот заказ, а не просто так кнопочку в интернете нажал. Это нужно, чтобы уменьшить процент брака (возвратов, за которые платит уже магазин, а не отказавшийся покупатель).

Да, согласен, это всё очень не совершенно. Я обратил внимание на этот подход, т.к. он может быть проще для пользователя (не все понимают, что когда написано "введите код, который видите на рисунке", то не надо путать маленькие и большие буквы, добавлять от себя лишние симводы и т.д.). А уж отличать кошек от других зверей (при нормально качестве фото), люди могут гораздо лучше, чем бот :). Автоматический он в том смысле, что не человек усилием мысли отличает, что опять спамбот пришёл, а программа "сама" не примет левую регистрацию (как и при классическом подходе с одной картинкой).

Ладно, посмотрим, что будет удобнее. Мне показалось интересным поднять эту тему, т.к. задача отсева ботов без потери людей (что важно, например, интернет-магазинам) встаёт всё жёстче.

1) Всё очень индивидуально. Например, надо смотреть ещё на количество внешних (не Ваших) ссылок на этих сайтах с ПР7-10. Да и вообще, ПР7 бывает разный (очень большой люфт). Прежде всего, надо смотреть на то, где эти сайты взяли такой ПР.

2) Список ПР можно смотреть, например, http://google.codeby.net/

(есть ещё множество аналогичных сервисов)

Да база-то такая собирается легко - раз в месяц просматривать сотню самых активных "качков", да добавлять в список нужных. По сути ведь это - белый список (адреса, которые не подвержены автоматическим санксиям).

Кстати, в природе есть куча мест, где оно уже лежит в каком-то виде:

http://bot.tixit.ru/user_agent/20/iplist/

Опять же у Гринвуда упоминается:

http://bloggreenwood.com/comments/D288_0_1_0_C/ (первая ссылка)

Но мне как-то было проще составлять свой список. Так оно надёжнее :)

Ведь задумывалось это всё только для того, чтобы всякий DiscoPump обламывать, когда его на сайт натравляют. А то уже устал от воров контента...

bbon:
если уж сильно приспичило - анализировать скриптом user-agent и отдавать главную страницу с этими ссылками или без - по потребности

У-у, совсем клоакинг какой-то получается. не надо так делать! во всяком случае, не стоит такое советовать.

А что касается "лениться" - многие оптимизаторы частенько ходят под юзерагентом яндекса :)

maximumx:
А собственно как вы отделяете мух от котлет? Пожалуйста просвятите в данном топике.

Хорошо, давайте попробуем.

Мысль такая: много качать стоит позволять только поисковым роботам (и то, только интересным мне). Все остальные пусть качают по формуле представленной выше (<= 10 запросов в секунду, и т.д.). Ясно, что пользователь такие объёмы качать не станет. А ботам, которые мне не нужны - временный бан за превышение этих лимитов.

А интересных мне ботов (котлет :) ) я и так знаю (по IP). Это, конечно, можно называть клоакингом, но согласитесь, что словить за это санкций - очень маловероятно. Во всяком случае, это позволяет затруднять жизнь оптовым ворам контента (новичкам). Т.к., судя по логам, они смиряются с низкой скоростью скачивания с моих сайтов, после чего благополучно отваливают.

whiteman:
- ну как.. полторы коровы в месяц - минимальная цена у меня ж)

Вам смешно, а я, по молодости ещё, за пару месяцев продвижения сайта одного мелкого провайдера получил трафика от него на несколько лет вперёд. Только растратил уже всё... Мне тогда деньги как раз были не нужны :)

Тематические счётчики с рейтингом иногда дают нехилый трафик, поэтому их стоит оставить. Рамблер топ100 тоже даёт нормальный трафик, если удалось подняться в нужной категории, но уже не из-за узкотематичности, а из-за большой своей посещаемости. С ракса ощутимых посетителей получить не удавалось, равно как и с мэйлру. Остальные счётчики - это, по-моему, вообще трата времени.

Как уже сказал Sergey, иногда надо показать независимые результаты заказчику/партнёру, тогда лог-анализаторы не годятся, а внешний незаинтересованный счётчик - как раз.

Ceres:
Обычно часов с 3-х до 4-х дня - ну хоть спички в глаза вставляй как спать хоцца :)

Ага, это после второго обеда начинается :d

По теме: хорошо ещё покимарить в машине иногда. Ну у того заведение, в которое как раз питаться и ездил :)

О! Родилась аналогия обо всём этом:

Если Вы пишите книги под двумя псевдонимами, а потом переживаете, что оба они вошли в топ1000 самых читаемых авторов, но не вошли в топ100, то у Вас морды расклеяны :)

Если же Вы выбрали основной псевдоним для своего творчества, то все Ваши читатели в соцопросах будут радостно называть именно его - следовательно этот один поднимется на более высокое место в рейтинге.

Теперь про проблемы из-за несклеянности: шибко начитаный бот может ознакомиться с трудами обоих "писателей" (т.е. обоих псевдонимов), сказать: "где-то я уже это видел", грубо добавить: "повтор мыслей и сплошной плагиат", после чего со скепсисом будет относиться к обоим.

Более того, когда Вы производите склейку, часть постоянных читателей это дело не заметят, а заметят, что их любимый автор исчез. И пока они поймут, что он переименовался, продажи по "склеянному" псевдониму будут меньше, чем суммарные продажи по обоим псевдонимам до склейки. И выправится это не очень быстро. Но за то, когда все читатели просекут, что произошла склейка, то они все будут покупать все книги этого писателя.

В реале всё не совсем так, но аналогия, имхо, близкая. Надеюсь, войдёт в историю объяснения пользы и рисков склейки на пальцах :d

Всего: 465