- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
здавствуйте!
не подскажете ip адреса ботов яндекса, рамблера , гугля и апорта ?
спасибо.
Рамблер:
IP - 81.19.66.6
User-Agent - StackRambler/2.0
Гугл:
IP - 66.249.71.xxx, 66.249.64.xxx
User-Agent - Googlebot/2.1
Апорт:
IP - 194.67.18.65
User-Agent - Aport
Яндекс:
IP - 213.180.210.xxx, 213.180.216.xxx
User-Agent - Yandex/1.01.001
Spam Killer, большое спасибо!
не подскажете, можно ли отследить заход на сайт по айпи и исли он совпадет с каким нить адресом из списка записать в файл куда он ходил и когда ?
можно, и по IP, и по User-Agent'у
даже можно примерный "график заходов" уловить, чтобы наметить периодичность работы с обновлением контента на сайте
Spam Killer,
а как , если не сикрет ? мне бы очень хотелось что бы скрипт записывал все посещения ботов в отдельный фаилик ....
хм... всё зависит от того, на каком языке скрипт написан
можно фильтровать по условию (if..then)
т.е., если IP или User-Agent соответствует условию, то все действия (посещения страниц) записывать в отдельный файл
я обычно ничего не разделяю, у меня вся статистика валится в один общий файл... просто потом обработчик всё выделяет в отдельный отчёт
а вообще, в логах вроде бы заходы поисковых роботов должны отдельно считаться... дело вкуса, так сказать
Spam Killer,
мой сайт написан на пхп ... я сам пхп плохо знаю ... есть скрипт по отправки почты при заходе на сайт с информацией о юзере ... можно ли его переделать , что бы он записывал заходы ботов в фаил ххх.тхт ?
<?
$fp = fopen("visits.txt","a");
fputs($fp, date("H.i.s")."|".date("d.m.y")."|".$REMOTE_ADDR."|".$REQUEST_URI."|".$HTTP_REFERER."|".$HTTP_USER_AGENT."\n");
fclose($fp);
?>
Скрипт будет записывать в файл "visits.txt" дату, время, IP посетителя, страницу на которую пришёл, страницу с которой пришёл и User-Agent
Потом уже либо вручную, либо каким-то обработчиком сможешь выловить заходы ботов.
P.S. Не забудь для файла "visits.txt" выставить параметр "для записи"