djatell

Рейтинг
38
Регистрация
19.05.2006
Должность
дятлинг, издолбинг.

Используйте $_SERVER['HTTP_USER_AGENT'] - наиболее тупых ботов, не умеющих притворяться отловите на раз. Всякие lwp php libwww wget и подобное.

С умными сложнее, надо смотреть тех кто не скачивает скажем таблицы стилей, или яваскрипты/картинки.

С самыми умными - которые фактически надстройка над ИЕ как правило, поможет только анализ поведения - смотреть не слишком ли много страниц в минуту/час скачано и каких.

Ну и есть такие что хоть тресни от пользователя не отличишь :)

Да, забыл, многие боты почему-то любят протокол HTTP/1.0 , тоже неплохой признак

ПоисквИнтернет:
Меня интересуют примеры форумов для обсуждения профессиональных проблем.

Профи в оффлайн-отраслях... что им на форуме цедить-то?

Я сейчас как профессиональный столяр скажу. Да, больше чем у половины из ребят в нашем цеху были компы дома. Детям поиграть. Начцеха и конструкторы немного по делу инет пользовали - скорее что-то про мебельные выставки найти. Но сколько было визгу когда я вытащил с сайта какого-то немецкого института оптимальные режимы сушки древесины с кучей таблиц и графиков.... намёк понят? Этим людям нужен доступ к переводным текстам о рентабельных технологиях. А обсудить они и так могут, в курилке или прямо у станка. С карандашом и рулеткой. И тут же проверить идею.

Вот всякие "продвинутые любители" - это да. Сайт мастерсити как яркий пример.

В вашем случае -

путь:

/путь/к/пхп/php /путь/к/файлу

пример:

/usr/bin/php /home/www/site/test.ph

пути - полностью, от корня

то есть вызывается бинарник пхп и ему скармливается скрипт.

если вывод скрипта не нужен, написать

/usr/bin/php /home/www/site/test.php > /dev/null

если нужен

/usr/bin/php /home/www/site/test.php >> /home/www/site/file.txt

картинку не очень понял. кажется скрипт будет запущен каждый день (два раза?), каждый месяц в три часа утра

robust:
а что, браузеры уже научились векторную графику понимать?

Есть экспериментальная поддержка SVG в Gekko-браузерах... Некоторыми штучками можно пользоваться уже сейчас. Лично наблюдал занятные градиентные заливки при отключённой графике на некоем сайте... (вспомнить бы ещё на каком)

так и не смог опробовать - не хватило терпения дождаться загрузки на медленном канале.

Мне кажется, проще сделать сборщик лог-файлов, на свой какой-то сервер, и проанализировать как душе угодно отдельным скриптиком. Если задача только отловить движения определённых ботов - то это совсем несложно. Для себя делаю статистику по action_id - например, добавление страницы, посещение страницы ботом, заход на страницу с поиска по такому-то ключу... логи пишу в базу и потом уже анализирую.

1. унифицировать начинку всех сайтов с интеграцией управления всеми рекламными местами на них и единой статистикой (с разбивкой по ЦА).

2. сформулировать "политику" по развитию/рекламе

3. посадить за пульт человека, дав ему в качестве вводной п.2 и, допустим, процент от рекламного оборота.

4. покупать нужную рекламу на своих же сайтах на общих основаниях, излишки пускать налево/не пускать налево

плюсы - резкое сокращение рутинной работы, увеличение эффективности рекламы

минусы - морока на стадии перевода этого рассадника на промышленные рельсы, хотя, десятка два сайтов это не много.

http://awstats.sourceforge.net

инструкции по установке и настройке внутри архива, на английском.

имею подобное средство (для документов правда, не для форума), действительно удобно. просто указываешь тему текстовки а она на нужном сайте выводится. или на нескольких подходящих по тематике.

мне кажется что для для сеточных целей в принципе можно клонировать любой распространённый форум, путём внедрения в таблички колонки с id сайта и фильтрации по ней. как вариант - любой блогодвижок с возможностью редактирования комментов, и фильтровать по тэгам (на каждом сайте сетки при добавлении текста назначать некий тэг-признак)

Попробовал, у меня выглядит нормально. заголовки у вашего сервера тоже правильные. Может просто шрифт побаливает в браузере?

Всего: 73