- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Vitaly2012, вам скинули на php, в SSH на windows https://www.chiark.greenend.org.uk/~sgtatham/putty/latest.html
Не видел я скрипта на php, ткните в него.
Vitaly2012, /ru/forum/comment/16388585
это будет работать.
Vitaly2012,
это будет работать.
Это вообще не то, мне нужно блокировать любые запросы с хоста bc.googleusercontent.com, а не ограничивать только запросы на поиск.
А, ну в принципе да, так можно и любые запросы блокировать. Попробую, но хотелось бы через htaccess, так как на сервере много сайтов
на разных движках и разбираться в какой куда что вставлять, неудобно.
Vitaly2012, вставлять в какой нибудь общий файл, типа конфига, тогда будет блочить запрос для всего сайта.
Это вообще не то, мне нужно блокировать любые запросы с хоста bc.googleusercontent.com, а не ограничивать только запросы на поиск.
А, ну в принципе да, так можно и любые запросы блокировать. Попробую, но хотелось бы через htaccess, так как на сервере много сайтов
на разных движках и разбираться в какой куда что вставлять, неудобно.
В index.php первой строчкой вставляется в любом случаи.
В index.php первой строчкой вставляется в любом случаи.
Как вариант возьму на заметку, но хотелось бы менять в одном месте, а не на всех сайтах.
Как вариант возьму на заметку, но хотелось бы менять в одном месте, а не на всех сайтах.
Эм... ну добавьте в iptables правила с блокировкой или firewall, что там у вас стоит. И всё.
Еще вопрос, а кто это - тоже ддосеры или Яндекс?
77-88-5-20.spider.yandex.com - - [22/Mar/2020:10:48:19 +0200] "POST /index.php?do=search HTTP/1.1" 403 211 "-" "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.2623.110 Safari/537.36"
77-88-5-20.spider.yandex.com - - [22/Mar/2020:10:48:19 +0200] "GET /index.php?do=search HTTP/1.1" 403 211 "-" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:60.0) Gecko/20100101 Firefox/60.0"
И почему 403 отрабатывает?
Прогнал по тому варианту, что я написал через картинки.
В итоге IP 66.249.93.76 и хост google-proxy-66-249-93-76.google.com
{"HTTP_USER_AGENT":"Mozilla\/5.0 (Windows NT 5.1; rv:11.0) Gecko Firefox\/11.0 (via ggpht.com GoogleImageProxy)"}
Так что
$googlehost = gethostbyaddr($_SERVER['REMOTE_ADDR']); if (stripos($googlehost, '.bc.googleusercontent.com', 0) !== false || stripos($googlehost, 'google-proxy', 0) !== false) {die('stop');}
Решение конечно корявое, но пойдёт. По уму gethostbyaddr не всегда выполняется, иногда может в таймаут уйти, ну и $_SERVER['REMOTE_ADDR'] не всегда берет нужный IP.
Vitaly2012, поисковый бот яндекса. googleusercontent.com кстати в картиночной выдаче участвует, с кеша тянет вашу картинку с сайта. Но по вашему логу это явно не картинки, если конечно вы там не поредактировали для нас ловушку)