- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подкиньте скрипт проверки сайта на предмет посещения роботом ПС.
Кому не жалко, заранее благодарю.
[пиар]В Super Pack'е есть такая функция ;)[/пиар]
Можно логи мониторить. А можно заинклудить файл проверки реферера, и если это реферер одного из ботов, то передавать эту инфу владельцу
Подкидываю: awstats, на любом уважающем себя хостинге он установлен.
Holy Diver, на бесплатных говнохостингах даже логов не дают, не то что awstats
gamarjoba, скрипт записи зашедших на сайт в файл log.txt, можеш в нем ботов поискать потом ;)
<?php
$request_url = $_SERVER['HTTP_HOST'] . $_SERVER['REQUEST_URI'];
$new_record = $_SERVER['REMOTE_ADDR'].' ['.date("d.m.Y") .' '.date("H:m:s").'] "GET '.$request_url.'" "'.$_SERVER['HTTP_USER_AGENT'].'"';
$new_record2 = $new_record."\r\n";
$file_log = fopen("log.txt","a");
fputs($file_log, $new_record2);
fclose($file_log);
?>
Желательно сначала создать пустой файл log.txt в корне с правами на запись/чтение
Он будет такого формата потом:
71.56.193.11 [14.03.2009 19:03:51] "GET xxx.ru/main.htm" "Mozilla/5.0 (Windows; U; Windows NT 6.0; en-US; rv:1.9.0.7) Gecko/2009021910 Firefox/3.0.7"
66.249.71.18 [14.03.2009 21:03:56] "GET xxx.ru/video.htm" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Можно логи мониторить. А можно заинклудить файл проверки реферера, и если это реферер одного из ботов, то передавать эту инфу владельцу
может юзер агента
может юзер агента
Да его, ошибся
Madness_Lvov благодарю.
Может кто-нибудь еще подскажет какие HTTP_USER_AGENT у ПС-ботов и ПС-тулбаров?
Вот такой в паблике лежит.
Юзер-агентов добавил, расскрасил для наглядности.
Иногда использую, может ещё кому сгодится.
За скрипт спасибо, но юзер-агентов тулбаров там не увидел. Кто знает?
За скрипт спасибо, но юзер-агентов тулбаров там не увидел. Кто знает?
у тулбара нет юзер агента, он вообще не нужен.
тулбар просто скидывает на сервак гет запросы с урлом текущего сайта