Идея имеет право на жизнь, но если только считать кол. звонков, что, как Вы сами написали, не всегда отражает реальную картину.
Причина в том, что пользователи сети зачастую не разбираются где они нашли телефон или по какой рекламе они позвонили… им нужен товар или услуга все остальное им не важно, что логично.
Более того, множество не отличит рекламные блоки от обычной выдачи ПС.
Говорю это, основываясь на более простых опросах, таких как: по «какой рекламе Вы позвонили?» или «где Вы увидели нашу рекламу?». Максимум, чего можно добиться это: интернет (не конкретный сайт!!!), журнал, совет друга и т.д, но бывают и такие, что не помнят (у них просто записан ряд телефонов, по которым они звонят).
http://sub.domain.ru/robots.txt
Оформить ссылки через редирект, например http://site.ru/redir.php?url=http://site2.ru/
и запретить /redir.php в robots.txt
В 99% случаев смысла в подобном не вижу... 1% - это когда нужно запретить индексацию сайта основному боту Яндекса, но разрешить его проверять простукивалке Я.Каталога. (навеяно недавним топиком)
Хм... если такая база у кого-нибудь и есть, то она стоит денег...
Действительно, судя по отзывам, выше ценится key1key2 , но мне лично больше нравится key1-key2 , поэтому я просто регистрирую оба и не думаю над подобными вещами (да и суммарная стоимость доменов выше).
В любом случае, если проект будет развиваться, найдется множество доброжелателей, которые захотят зарегистрировать похожий по написанию домен...
Сколько раз писалось, что не сохраняйте пароли в фтп клиентах, браузерах и прочих распространенных программах... или сохраняйте, дописывая (или удаляя) один или несколько символов в любом месте.
Какой бы антивирус не стоял, он только помогает защитить комп, но самая надежная защита сидит перед монитором и управляет работой компьютера.
PS: Насчет avast-а я ничего хорошего сказать не могу… разве что, он не грузит систему, но это очень сомнительное преимущество.
А можно просто сгенерировать картинку и записать в файл и потом просто ее «вызывать»:
Пример:
function CreateImage($str) { $dx=strlen($str)*8; $im=imageCreate($dx,15); $white=imageColorAllocate($im,255,255,255); $black=imageColorAllocate($im,0,0,0); imageString($im,4,0,0,$str,$black); $filename="auto.png"; imagePng($im, $_SERVER['DOCUMENT_ROOT']."/img-png/".$filename); imageDestroy($im); } CreateImage('Greeting');
PS: Это ж надо было такой простой вопрос раздуть до такой степени…
Вы имеете в виду изображение с надписью "привет" или что?
удалено, дубль...
Думаю, что многое будет зависеть от структуры сайта (перелинковки страниц) на котором требуется отследить активность бота а также от количества внешних ссылок на конкретную страницу.
Боты, как правило, индексируют страницы подряд (опускаем варианты с многопотоковой индексацией и возможные перебои в работе серверов), то есть:
1. Индексируется главная страница
2. Анализируется страница и найденные ссылки ставятся в очередь на индексацию
3. Индексируются страницы из очереди, выполняется пункт 2 и т.д.
Поэтому можно предположить, что страницы будут индексироваться без особых прыжков, то есть сначала страницы верхних уровней, потом нижних.
Если же некоторые внутренние страницы посещаются не по логическому графику (спонтанно), то это может свидетельствовать о переходе бота по ссылке с другого сайта.
PS: Несмотря на все это, я думаю, что проследить с высокой вероятностью откуда пришел поисковый бот (а именно реф. бота) для полноценных, развивающихся сайтов скорее всего нельзя.
Если теги - это ссылки на результаты поиска по сайту, то однозначно их стоит запретить к индексации.
Это легко реализуется при помощи php или других языков программирования.
Например, чтобы с главной не было ссылки на главную можно использовать простой скрипт:
<? if ($_SERVER['REQUEST_URI']!='/') {/*внутренняя страница, показываем ссылку на главную*/?><a href="/">Главная</a><?} else {/*главная страница, ссылку не показываем*/} ?>
Стоит отметить, что универсального способа сделать подобную навигацию по сайту нет, ведь все сайты строятся на разных движках и ссылки по разному формируются.