- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Где брать user-agent для своего парсера?
В логах своих посещаемых сайтов
Создайте любой файл с расширением php, скопируйте в него код, что представлен выше. Создайте папку logs, залейте туда логи своих посещаемых сайтов (не надо большие логи, достаточно 1-2 мб веса). Запустите скрипт и вот вам список юзер-агентов, которые посещают ваш сайт.
Зачем так сложно?
http://www.useragentstring.com/pages/useragentstring.php
http://www.user-agents.org/
http://www.google.ru/search?hl=ru&q=user+agents+list&lr=&aq=0&oq=user+agents+
p.s. для чего так много кода? file + foreach гораздо быстрее
file не съест большой файл, а действительно положит сервер:)
Да и просто люблю придумывать то, что давно придумано, свое оно роднее. Пусть код и коряв, но работает.
Да и дает реальные результаты по юзер-агентам сайта, мало ли кому интересно станет кто ходит по его сайту
humbert, знали бы вы bash, обошлись бы в 1 строчку ... cat logs/*.log | awk "{ print $8; }" | uniq
что нить такое =))
[ATTACH]39518[/ATTACH]
только вчера нагуглил, почти 4К :)
ПС.
За скрипт спасибо!
Пошел изучать логи :))
humbert, интересный подход, ведь так можно не только UA добывать!
Где брать user-agent для своего парсера?
а зачем его брать. Хоттите чтобы к Вам относились нормально, подписывайте парсер нормально, своим именем. Если же делате что-то не очень хорошее, по UA банить и так не будут.... К тому-же, просто откройте логи совего сайта и выберите все уники. Получится несколько тысяч. Только накой....
Ну тут вопрос не в том зачем, а где. Этож можно спросить про то, зачем самому делать пельмени, когда можно готовые купить.
Я считаю себя кодером и мне просто интересно работать с разными данными, в том числе и с их обработкой и структурированием, вот сидел и написал, может кому и пригодится:)
humbert добавил 24.07.2009 в 13:55
P.s. вот сейчас сижу и пишу парсер прокси. Понятно, что есть готовые варианты, но мне хочется свое.