- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Раньше у Бегуна в user-agent было написано: Begun Robot Crawler
Это позволяло отличать Бегуна от живых пользователей и не блокировать его при повышенной активности (в Битриксе есть такая настройка, не блокировать нужных ботов, даже если они слишком активны).
Недавно у Бегуна сделали совершенно безликий user-agent:
Mozilla/5.0 (X11; U; Linux x86_64; ru; rv:1.9.1.1) Gecko/20090730 Gentoo Firefox/3.5.1
Пишу в техподдержку - там подтверждают, да, поменяли. И теперь будет так.
Неужели в Бегуне в техническом отделе никто не понимает смысл User-Agent и смысл того, чтобы Бегуна можно было отличать от обычных посетителей?
и давно они такое замутили ?
Несколько месяцев назад.
по-моему это логично.
вы же наверно в курсе что робот яндекса ходит не только со своим юзер-агентом, но и заходит с подобным безликим, дабы избежать подмены страницы со стороны сайтов
Речь не о поисковом индексаторе, а о боте рекламной сети. И тут речь не о контрольных заходах (ради бога), а о постоянном user-agent.
я не понимаю какие это вам проблемы создает, неужели он создает большую нагрузку ?
точнее неужели вообще какие-то боты (если это не целеноправленный ДДОС) создают хоть как-то заметную нагрузку на сервер ?
lycefer,
В генерации отчётов о посещаемости мы избавляемся от хитов ботов. Нормальный бот - представляется, и его хиты не забивают статистику.
А вообще да, я тоже не понимаю смысла маскировки под нормальный браузер основного индексирующего бота. Хотите контролировать - контролируйте на здоровье с подменой на браузер. Но первоначальную индексацию мне кажется нужно осуществлять ботом, который представляется как положено (как это сделано у всех). И правильно говорят выше - для статистических отчетов, где боты отдельно, юзеры отдельно - это важно.
Предвижу следующие топики вида - "мой сайт не индексируется Бегуном" и при разборе окажется, что человек просто забанил юзер-агент Бегуна как подозрительный.
Linux
x86_64
Gentoo
по-моему, каждый последующий пункт увеличивает вероятность, что это не реальный пользователь, а бот. Гентушников по сравнению с обычным пользователями даже других линуксов, типа Ubuntu, Debian и прочих мандрив с опенсусями очень мало, не говоря уже о пользователях windows.
по-моему, каждый последующий пункт увеличивает вероятность, что это не реальный пользователь, а бот. Гентушников по сравнению с обычным пользователями даже других линуксов, типа Ubuntu, Debian и прочих мандрив с опенсусями очень мало, не говоря уже о пользователях windows.
Вот именно поэтому на разных хостингах админы решат "это" заблокировать, уж слишком подозрительно выглядит. Тем более сканит много сайтов и много страниц и не представляется при этом. Поэтому нужно представляться правильно, чтобы было видно, что это "хороший" бот.