eByeBots

eByeBots
Рейтинг
7
Регистрация
10.12.2025
Должность
Владелец
Интересы
Веб-безопасность, фильтрация трафика, защита от ботов, Anti-DDoS, аналитика трафика, оптимизация сайтов, администрирование серверов, веб-технологии
Занимаемся комплексной защитой сайтов от ботов, парсеров и DDoS-атак. Обеспечиваем фильтрацию трафика и стабильную работу проектов на любых платформах. Надёжная фильтрация трафика через прокси-сервер. Защита от накрутки ПФ, парсеров, DDoS атак и снижение нагрузки на сайт.
lucas12 #:

«Коллега, спасибо за совет про нагрузку. Но давайте посмотрим правде в глаза.

Я владелец интернет-магазина с уникальными авторскими фото. Мои фотографии воруют:

  • На Озоне (докажи, что твои — и это недели разбирательств)

  • На WB (с теми же карточками)

  • На Aliexpress (китайцы вообще не парятся)

  • Конкуренты копируют в свои магазины и продают дешевле

В декабре кто-то продал на маркетплейсе моих товаров на 300к, а я узнал об этом случайно. Это мои упущенные деньги. Мои прямые убытки.

У меня 15 тысяч внешних ссылок с 900 сайтов — это не SEO-плюс, это мои фото гуляют по сети без спроса.

Мне плевать на нагрузку на сервер. Если надо — я куплю тариф подороже. Но я не могу допустить, чтобы мой уникальный контент воровали и продавали без моего ведома.

Поэтому да, я убрал картинки из кеша Nginx. Да, я отдал их в Apache и режу по User-Agent. Да, нагрузка чуть выше. Но парсер aiohttp  теперь получает 403, и мои фото перестали воровать в промышленных масштабах.

У нас разные задачи. У вас — производительность. У меня — сохранение авторского контента и денег. Не надо мерить всех под одну гребёнку.»

Давайте куку всем зашедшим на сайт, а загрузку картинок отдавать если есть кука. 
Нет куки, нет картинки. По US блокировать хорошо, но не от всех, я бы HTTP  1.1 протокол на капчу (поисковик в исключения), парсеры же эти с http 1.1 идут, в логах посмотрите

Ваш .htaccess замедляет работу самого сайта, чем больше файл, тем хуже, возможно пока не ощущаете.

Ponyk #:

У меня из этой страны вообще никогда не было значительного трафика. 

Значительного в том смысле чтоб я его заметил. 

У всех индивидуально)

Не скам, но бюджет сливается - да, и алгоритмы глупые.
Яндекс Директ требует точечной настройки и своего подхода.

Там 3 типа пользователей, по крайней мере я сейчас так вижу:

1. Реальные люди
2. Боты
3. "Невнимательные" (обычно дети - яндекс игры сразу блокировать, или приложения/сайты не вовремя показывают рекламу)

Попробую простыми словами объяснить логику: алгоритмы обучаются на посетителях, туда входят и боты.
Антифрод яндекса - это просто название. Вам нужно научиться фильтровать ботов и невнимательных.

Пример реализации: вешаете капчу, кто прошел - даете яндексу печеньку. Добавляете цели.
Делаете 2 сегмента аудитории через Яндекс Аудитория (загружается скрипт для тех кто не прошел капчу) и другой для тех кто прошел.
Третий можно для тех кто вовлечен.

Дальше на основе аудитории, настраиваете директ. Исключаете похожую аудиторию кто не прошел. Ищите похожих кто прошел или вовлечен, через Look-alike.

Автотаргетинг у них глупый и полностью не отключается.

Все зависит от возможностей Вашего сервера.
Самое простое - заблокировать всю сеть AS16509 - это если у Вас Nginx, с Apache не рекомендую.
Если сервер можно подружить с GeoIP Lite 2 то блокировать по ASN - что удобнее.

Можно и по странам, но не забудьте добавить в белый список сети гугла и других ботов - если SEO аналитика, или чем еще пользуетесь.
Как вариант повесить капчу на всё.. если нет желания разбираться. У вас есть access.log - там всё есть, просто это рутина..

По поводу - meta-externalagent, уж очень он агрессивно сканирует - сеть ASN 32934
Andrew Z #:
.Так что в итоге посоветуете?
Вам уже предложил все возможные решения)
Andrew Z #:
cloudflare на сколько мне известно, РКН блокирует... или не правда?
да всё так, мне просто интересно кто Вам предложил ставить в РФ клауд,
там конечно есть возможность что бы он работал, но это упирается в бюджет хороший или костыли..)
Andrew Z :
Форумчане добрый день. За последний месяц мой сайт атаковали боты с Китая. По данному вопросу обращался в Яндекс с просьбой прокомментировать и посоветовать что-нибудь, их ответ -"

эти действия не повлияют на позиции вашего сайта в поиске".  Пробовал устанавливать ботфактор, за пару дней пользования понял что данная программа пустышка не стоящая тех денег, которые за нее просят- боты как были с Китая так и остались. Устанавливал killbot - данная прога тоже не очень понравилась, особенно в плане установки. Советует установить cloudflare, но на сколько мне известно данная прога в России не работает. Что посоветуете? Есть какие-нибудь недорогие проги? Или забить на данную проблему и придерживаться советов Яндекса?  


Бороться. Клауд не для РФ, а кто советует? можно блокировать через .htaccess бесплатно / nginx, или воспользоваться готовыми решениями. Как вариант аналог клауда - прокси сервер на отдельном VPS и фильтрация там.
MrPi :
Не понимаю. Перестали открываться сайты по типу namecheap, godaddy и других. Думал проблема в cloudflare но другие открываются нормально. Сталкивался кто? Есть решение? 
А Вы провайдеру напишите, он Вам скажет в чем дело и ссылочку заготовленную отправит)

или лучше даже обсудить определенные кейсы, мол писал ИИ вот такой вопрос, а получил вот такую ерунду.
Конечно ИИ надоел, он во всех сферах бизнеса, всё может расписать и помочь и время на задачу - сокращается в разы - и в тоже время заменяет людей))

тут даже интересно будет ли эра новых сайтов чисто для людей, ну по типу что для медицинских тематик - давать мед.советы может только человек специалист.
Просто ИИ обучился, новый контент уже от ИИ - и это переработанный мусор низкого качества - в большинстве (я про текст). он не будет улучшаться - хотя бы потому что люди перестали писать действительно годные советы и наблюдения.  это не монетизируется как раньше.

тут не опрос нужен для начала, а обсудить какими ИИ вы пользуетесь и какой для вас лучший и почему? а там уже сделать выборку. у сервиса LMarena - есть таблица где люди голосуют какой ИИ и в чем сейчас лучше, + режим версус - где пишешь промт, смотришь лучший вариант и голосуешь анонимно - на основе этого строится таблица.

нельзя обобщать все ИИ. Условно у Вас опыт использования - гига чат, и вопрос какая погода или как почистить картошку ;)
у других запросы по коду, у третьих дизайны, тексты и.т.п

если делать правильные промты и запросить источники, то и ответы будут корректные: например, есть машина, сломалась, ищешь ответ. если мало дашь вводной инфы - он будет гадать, если больше информации - то логика включается точечно. Если попросить изучить форумы по марке машины и частые проблемы подобные, попросить ссылки - то там ошибок минимум. Конечно нельзя доверять роботу безотказно, поэтому я использую несколько ИИ (chatGPT, Gemini, DeepSeek, Claude - и каждая хорошая в своем).

кто то вообще просит ИИ для ТЗ - и там получается 2 страницы воды, спросишь что Вам нужно - своими словами - так всё намного проще, проблема не в ИИ, а в людях, которые не умеют структурированно писать запросы для ИИ

Volovikov #:
А я читал информацию, что Ваш любимый Клауд вводит правила, при которых всем ботам ИИ будет бан, если они не будут делиться прибылью с сайтами-источниками. Кому верить, непонятно. 
по-моему это сделали (забыл о клауде и перешел на прокси-сервер) -  анонс точно был -  но суть в другом..)

это планировалось по желанию владельца сайта, к тому же ИИ боты могут заходить не под юзер агентами (которые тоже можно назначить любые), а просто под юзер агентом браузера последнего - и всё)
еще более продвинутый бот может использовать JS или  браузер хром -  и тогда он отобразится в я. метрике - по-моему так делают сингапурские / китайские боты - яндекс метрика вообще страны не всегда корректно определяет.
 Если JS нет - то бота в метрике нет - в логах можно найти.

Я это к тому - что парсить будут всегда. Посмотрите как дипсик заходит на сайт, изучив логи сайта - отправьте ему любую страницу)
Всего: 61