Проблема в том, что, как мне показалось, на Западе так точно никто не делает. Берут сайт, прописывают, оптимизируют и т.д., после чего отдают его обратно - заработав деньги, естественно.
LiM
Не считая первоначальной, присланной Сегаловичем :)
Так, не будем путать грешное с праведным.
Топик был начат, как я понял, на тему распознавания роботов. Причем, прошу отметить, на тему их распознавания в форумах. Большинство современных скриптов форумов позволяют отслеживать поведение посетителей на форуме - используемый на этом форуме тоже это делает.
Поэтому, чтобы в онлайне показывать таких посетителей, как роботы - достаточно в коде форума, кроме распознавания куки, добавить чтение переменной окружения HTTP_USER_AGENT, которая передается любым запросом GET.
Разбор логов - вещь совсем другая. Грубо говоря, каждый заход на сайт приводит к записи в лог вебсервера.
Ну, так и так пишется. А потом делай что хочешь - натравливай программы обработки логов или вручную просматривай. Да хоть распечатай и вместо обоев наклей (копирайт мой :))
Формат записи в логе:
crawler10.googlebot.com - - [26/Jun/2002:00:55:05 -0400] "GET / HTTP/1.0" 200 29032 "-" "Googlebot/2.1 (+http://www.googlebot.com/bot.html)"
Не правда ли, почти все ясно? :)
euhenio
Еще раз на пример посмотри. "Прокат автомобилей" и "отели" - в общем-то, по стоимости услуг довольно близко.
Кроме того, действительно дорогие вещи через Сеть не покупают. И даже не звонят. Те же автомобили покупать надо в оффисе - обговаривая комплектацию и требуя скидку. :)
Вот это и хотелось бы узнать. Тем более, что большинство предлагает позиционирование за определенную сумму по одному запросу.
Когда-то AiK делал скрипт для выковыривания ссылок с предложенной страницы и запихивания их в Яндекс и Рамблер. Посмотри в "Сервисах...", хотя лучше сразу стукнуться к Артему.
Безусловно, клиент должен понимать, за что он платит деньги. Только, видишь ли, несоответствие все равно остается. Возьмем последний отчет Вордтракера для примера.
Почему клиент, заказавший позиционирование по запросу, скажем, "car rentals" должен платить за эту работу в 10 раз меньше, чем другой клиент, заказавший позиционирование по запросу "hotels"? Работа одна и та же, трудоемкость не отличается, но траффик по этим запросам отличается в 10 раз.
Повторяю, это только пример. Несложно подобрать любой другой набор запросов, работа по которым отличается мало, а траффик - наоборот, в разы.
В этой схеме есть нехороший момент. Вы, фактически, продаете поисковый траффик. Т.е., независимо от количества работы, вы зависите от сезонных, например, колебаний в популярности ключевых слов. Это во-первых.
Во-вторых, вы не раскручиваете сайт фирмы. Вы просто продаете траффик (я повторяюсь).
Ну и наконец, что неправильно в этой схеме с моей точки зрения. Человека, который оптимизирует сайт и/или приводит на него траф из поисковиков, не должна волновать отдача от этого траффика. Просто потому, что она от него не зависит - можно привести на сайт гостиницы в Крыму тысячу посетителей с кредитками, планирующих летний отдых, но, если гостиница не оказывает услуг по онлайновому бронированию номеров или до формы заказа сложно добраться из-за непродуманной навигации сайта, отдача будет низкой или вообще никакой - а разве вы в этом виноваты?
Нет, расчеты, имхо, должны вестить не по траффику, а по положению сайта в выдаче.
Кроме того, если параллельно ведется работа по повышению LP, то траффик, пришедший по проставленным ссылкам - тоже ваша заслуга.
ИМХО, правильно просто выставлять определенную сумму клиенту - и пусть он определяется, выдержит его рекламный бюджет такой расход или нет.
Да нет. Ты, когда заходишь на форум, скрипт читает куку с твоего компа и, если ты зарегистрирован, показывает тебя в онлайне. Чтобы показать робота (а он тоже ловится скриптом), достаточно, кроме куки, читать UserAgent и сравнивать его со списком. Нагрузка ненамного выше.
Определять лучше всего по UserAgent. Не ставил себе целью внедрять такое опознавание в этот форум, но в принципе это сделать можно.
Траф может подрасти серьезно. Вот тебе пример - за 4 дня июля бот Гугла просмотрел на этом сайте 1100 страниц, а бот Яндекса - 440.