- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Staid, в скрипте нету заблокированных и никакие черные списки сами не создаются. есть не прошедшие проверку. Т.е. вы можете браузером нормально заходить на сайт, а если с того же ip захотите запустить php парсер - он дальше заглушки не уйдет.
он дальше заглушки не уйдет.
Таких хотелось бы видеть в отдельном файле. Есть такая возможность?
Таких хотелось бы видеть в отдельном файле. Есть такая возможность?
это сложно реализовать на автомате, т.е. ресурсоемко, т.к. сначала надо куда-то записать зашедшего на заглушку, а потом через 3 сек если он пройдет защиту - удалить запись из лога, на файлах это уже не сделать, а с базой, даже sqlite - это лишние ресурсы и не малые, скрипт вместо снижения нагрузки начнет наоборот ее создавать больше, чем если совсем без скрипта антибота.
Сейчас можно удалить из файлов логов дубли строк, и чем нибудь сравнивать логи. из лога 1 удалить строки которые есть в логе 2, это и будут не прошедшие. Наверное должны быть такие программы.
foxi, Спасибо, поищу подобные проги.
Смотрю в основном дорвейщики покупают антибота, но скрипт даже больше полезен белым сайтам и сателлитам, чем дорвеям, т.к. в нем есть защита от парсинга контента дорвеями и прокси-сайтами-дорвеями, контент будет дольше сохраняться уникальным, защита от спама форм, ну и нагрузка часто заметно снижается, особенно если на сайте много страниц.
Смотрю в основном дорвейщики покупают антибота
Мы для белых сайтов купили, пока все устраивает. ;)
в dle ругается при открытии rss ленты -
ну соответственно line 2 это -
iccup, если папка antibot в корне, то в engine.php подключите его так:
iccup, если папка antibot в корне, то в engine.php подключите его так:
не помогло, пишет то же самое
не помогло, пишет то же самое
require_once($_SERVER['DOCUMENT_ROOT'] . '/antibot/antibot_include.php');