- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Когда пришел, куда ходил, и т.п.
Чтобы можно было оставить только такой отчет, чтобы не считал счетчик остального. Только роботы. Ну и бесплатный конечно :)
Написать самому
могу написать за умереную плату.
Когда пришел, куда ходил, и т.п.
Чтобы можно было оставить только такой отчет, чтобы не считал счетчик остального. Только роботы. Ну и бесплатный конечно :)
Определяй ip адреса на php,
затем пиши в базу или в файл.
потом сумируй за день уникальные посещения.
все. 🚬
1. в .htaccess надо прописать чтобы файлы с расширением .txt обрабатывались в php-интерпретаторе (надо проконсультироваться с хостинг-провайдером насчет точной строчки)
2. в файле robots.txt вставляете код какого-нибудь бесплатного php-счетчика или пишете логику сами: ну, например, чтоб на почту отправлял значение user-agent. короче, группируйте и суммируйте так как вам надо.
Robots.txt запрашвают все уважаемые спайдеры, ну еще хакеры - их отфильтруете по user-agent'ам ...
***
А еще проще включить ведение лог-файлов на хостинге и анализировать с помощью лог-анализатора из NetPromoter или из SEMonitor.....
Роботов лучше всего анализировать по логам - это однозначно.
Хотя можно взять какую-нибудь простеньку системку типа CNStats.
Тут про авлу где-то писали, может она может роботов считать.
Но я бы все равно остановился на логах. Нагрузки меньше, точности больше.
2. в файле robots.txt вставляете код какого-нибудь бесплатного php-счетчика или пишете логику сами: ну, например, чтоб на почту отправлял значение user-agent. короче, группируйте и суммируйте так как вам надо.
Robots.txt запрашвают все уважаемые спайдеры, ну еще хакеры - их отфильтруете по user-agent'ам ...
Хорошая идея, вот только как отфильтровать по User-Agent'am ?
Еси он есть - поисковик ?
Если его нет - хакер ?
Как узнать User-Agent ?
наверное нужно, что-то типа этого?
http://script.woweb.ru/index.htm/id/1077328411
наверное нужно, что-то типа этого?
http://script.woweb.ru/index.htm/id/1077328411
Спасибо! Как я мог только забыть что Uer-Agent можно узнать простым способом:
$_SERVER['HTTP_USER_AGENT']
Офигеть... А еще сайты на РНР делаю...