- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть подозрение, что 99% useragent ботов содержит подстроку "http" как часть ссылки на своих хозяев.
Нет, это в основном у "вежливых" ботов, которые ходят аккуратно и читают robots.txt, есть много ботов с чисто браузерными user agent (например, очень агрессивный американский с abovenet, ищущий картинки ) или просто оставленными от curl и подобного.
скорее костыль, но вполне рабочий, почти все юзеры ходят через http/2, http/3, а вот боты через http/1.x, протокол лежит в $_SERVER['SERVER_PROTOCOL']
ps: bing отщепенец и большой оригинал, ходит через http/2
ну и ещё один вариант, более сложный, добавить на каждой странице вашего сайта аяксовый запрос к файлу, в котором будете в сессию записывать is_human=1, а путь к этому файлу запретить в robots.txt, соответственно боты этот запрос не сделают, а юзера сделают, ну и чистить с какой-то периодичностью сессии, в которых нет is_human
а чтобы не делать аяксовый запрос каждый раз, можно ввести доп куку, is_checked, если такой запрос уже делался, то есть такая кука уже стоит, то запрос не делаем
боты через http/1.x ... боты этот запрос не сделают
Не нужно недооценивать современные боты, они давно научились выглядеть и всё делать как юзеры!
Я сделал это решение 7 лет назад, пользуюсь до сих пор, проверено временем, 90% ботов курят в стороне. Глупо пускать ботов на уровень PHP и проверять там, когда можно сделать в разы быстрее на уровне Nginx
https://searchengines.guru/ru/forum/954988/page2#comment_14885499
Я сделал это решение 7 лет назад, пользуюсь до сих пор, проверено временем, 90% ботов курят в стороне. Глупо пускать ботов на уровень PHP и проверять там, когда можно сделать в разы быстрее на уровне Nginx
https://searchengines.guru/ru/forum/954988/page2#comment_14885499
Не, не рискну. Да и пусть ходят, что мне с того. Главное чтобы папка с сессиями не пухла.