- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Существует ли железный, сто процентный способ гарантировать что вот данный пользователь - не бот, живой пользователь?
Соглашусь с Антоний Казанский, гарантировать - нет.
Не стоит забывать, что ботоводы постоянно изучают защиту сайтов и предпринимают меры для его обхода.
Как пример с Cloudflare Bot Management, они в августе прошлого года добавили проверку на функцию "site isolation", включена ли она в браузере Chrome пользователя или нет. И уже в конце того же месяца в одной из популярных программ для создания ботов этот момент частично исправили и спокойно проходят данную защиту, следом и в другой через месяц, а со временем и полностью у обоих.
Не стоит забывать, что ботоводы постоянно изучают защиту сайтов и предпринимают меры для его обхода.
Это справедливо для любой системы защиты (не только от ботов). Если появляется публично доступная информация о способах защиты, то сразу же появляются способы обхода этой защиты. Именно поэтому лично я не люблю светить в паблике те способы, которые применяю для защиты сайтов от всякой напасти.
Теперь как и большинство тут, придерживаюсь мнения, что единственным железным способом будет уменьшение влияния ПФ на ранжирование сайта.
Сейчас можно практически любой сайт загнать в топ только одними ботами (без ссылок, внутренней оптимизации, контента и тд), поэтому сетки ботов и плодятся в геометрической прогрессии.
Что толку заморачиваться с развитием сайта: добавлением нового контента, редизайном, юзабилити и тд., когда конкурент может ничего не делая загнать на свой ГС ботов и его 1 главная страница сайта будет релевантнее для Яндекса, чем 100 разных страниц твоего сайта оптимизированных под каждый запрос.