В событиях CloudFlare заметил кучу переходов с юзерагентами curl/7.81.0 и axios/0.24.0 - user-agents.net говорят, что это боты/краулеры.
axios/0.24.0 идут только с AS24940 HETZNER-AS из Германииcurl/7.81.0 ломятся с кучи разных подсетей и с разных стран в раздел /wp-json/tdw/save_css, которого на сайте нет
Собственно, вопрос, что это за боты/краулеры и стоит ли их блокировать?
Вы всерьёз полагаете, что при DDOS-атаке кто-то чего-то ожидает? Вынужден Вас разочаровать: это не так.Можете хоть болдом писать, хоть крупным шрифтом, и даже выделить красным цветом - от этого ничего не изменится.
Вы прикалываетесь что ли?😁
Вот тут описан принцип работы - https://developers.cloudflare.com/fundamentals/reference/under-attack-mode/
Именно. А какая между ними связь? Расскажете?
То, что написал.
Мое сообщение: "Плюсом у CF по сравнению с обычных сервером-хостингом будет то, что при включении "Under atack" все визиты будет через JS ожидание проходить, что само собой нагрузку снизит в десятки раз."
Вам в этом сообщении не понятна связь между DDOS и JS?
Кто мешает подделать заголовки?
Как вы будете сотням тысяч запросов уникальные заголовки делать?
Если их вручную будут добавлять, значит будет пара десятков уникальных, которых так же легко можно в CF забанить вручную.
DDOS-атака и JavaScript - это вообще-то понятия, несколько не связанные между собой.
На самом деле могут. Если слабый сервер, плохо оптимизированные скрипты и большое число запросов.
Да ладно, есть такой пример? Сайт работал, себе работал, а потом бац поперкли краулеры и парсеры и все, хостер вырубает сайт никак не предупредив клиента. Я думаю - это нарушение условий договора.
При DDOS они сайт отключают, чтобы сервер не упал. В случаях со скриптами и краулерами, предлагают перейти на более дорогой тариф, в любом случае дают время на принятие решения.
как раз таки наоборот, я заметил что пиарят cf и решил уточнить, все кто рекомендуют вы различаете ddos от агрессивного сканирования ботами или парсинга?
поэтому когда рекомендуют интересно понять, вы думаете что скорее всего человека сканят например амазон боты, сейчас он натянет cf и вставит пару записей чтобы заблокировать известные подсети и все закончится?)
я могу конечно ошибаться, но просто интересно как справится cf с целенаправленной мощной атакой 10к ботами разных стран с разной шириной канала чьи подсети нельзя банить т.к это ваши потенциальные клиенты.
Вы ерунду не пишите, я вам четко написал про DDOS, причем тут краулеры или парсеры? По вашему они могут за час настолько забить сервак, что хостер отключает сайт?
А почему вы удивляетесь тому, что предлагают банить спамные подсети, IP, диапазоны IP, блокировать доступ из определенных стран? Как по вашему отражается атака ботов, вы знаете какой то другой способ?
Плюсом у CF по сравнению с обычных сервером-хостингом будет то, что при включении "Under atack" все визиты будет через JS ожидание проходить, что само собой нагрузку снизит в десятки раз.
И можно будет заблокировать крупные спам сети только на директ трафик, не будут же они на ваш на сайт через поиск долбится.
Сайт WordPress + Woocommerce.
Раньше была структура:
domen.ru/product-category/po-tipy/category-1
domen.ru/product-category/po-tipy/category-2
Потом решил поменять структуру и удалил родительную категорию, стало:
domen.ru/product-category/category-1
domen.ru/product-category/category-2
После удаления настроил редирект. Через какое то время удалил редиректы и обнаружил, что старые категории (с родителем) снова начали попадать в индекс.
И что самое интересное, эти категории wordpress нормально открывает.
Получается категория: domen.ru/product-category/po-tipy/category-1 открывается нормально, а эта: domen.ru/product-category/po-tipy/ уже 404 ошибка.
Как так получается? Если родительских категорий в wordpress уже нет. Получается они после удаления еще в базе хранятся?
какова мощность атаки была? сколько трафу сожрало по стате cf?
Точных цифр не помню, но сервер на виртуальном хостинге забивался моментально.
Почему от CF толку 0? Любой вебмастер без каких либо знаний администрирования сервера может элементарно заблокировать все спам сети в WAF, а там хоть и 100 Гб, все равно на сайт они не попадут.
Остальные будут сидеть в JS проверке, ждать пока их не вычистят.