Блокируйте спамные сетки на прямые заходы, там будет не более 10 сеток. После этого спам с прямых заходов можно будет считать по пальцам.
Спамные сетки блокирую. Идет немного ботов (возможно живые бакланы) по ipv4 с нормальных провадеров интернета, естественно такие блокировать не стоит. Пускай напрягаются.
Блокировка "ботных сеток" это первая ступень для "чайников", решает только проблему лишней нагрузки на сервер.
Отвечаешь как ИИ. Я их блокирнул и их больше нет для меня.
Идут нормальные люди с поиска.
На твои реплики никто не ведется (могу ошибаться).
У меня такая же ситуация. Боты откуда то взяли статистику посещения старой страницы сайта и лупят запросами со старым контентом, по несколько раз в сутки , как будто это сегодня актуально. А вот клиентов с этой страницы ноль в год.
Похоже у вас цель - засорить тему блокировки долбанных ботных сетей.
Сами поняли, что написали?
Полностью согласен с вами. Тоже их блокирую и имею чистую метрику с реальными заходами реальных людей с поиска.
Абсолютли. В какой-то из тем я уже рассказывал, но расскажу ещё раз. У меня есть сайт по обучению и с инструкциями по старой технике. Эта техника не используется уже более 10 лет по различным причинам. Она не просто устарела, а её использовать в принципе невозможно. Представьте, что это принтер с драйверами только под windows 95, заправку и расходники на него найти невозможно. А теперь добавьте к этому ещё и то, что это специализированная техника и в Россию она официально не завозилась. В теории может такое быть, что 1 посетитель в пару месяцев зайдёт с поиска на такую страницу. Но то, что таких посетителей 1-3 каждый день, да ещё и на десятки моделей просто исключено. Так вот у меня есть сайт с такими посетителями и всё там выглядит нормально и осознанно, если не учитывать, что искать это люди не могут. Запросы составные, а не просто по заголовкам и т.п. А если сайт актуальный, то распознать такие заходы просто невозможно.
2. заходы с яндекса, которые без внимательного анализа невозможно отличить от нормальных посетителей, фильтровать такое невозможно, да и глупо сразу вываливать всем подряд гуглокапчу, например.
Боты с Яндекс поиска по релевантным фразам?
Мистика
Понял.Я почему интересуюсь. Если полноценно забанить в правилах десятка два-три подсетей целиком (это допустим 1-2 тысячи строк для htaccess), и продвигаться дальше, то рано или поздно начнет проявляться перегрузка Apache.Вот и хотелось узнать со стороны, от тех кто активно наполняет, в какой момент это становится ощутимым.
Не думаю, что это сильно нагружает сервер. Файл htaccess - 16 кб
Зато нагрузка на сервер упала, когда я начал выметать ненужный шлак. Яндекс и Гугл довольны и дают живые визиты по нужным фразам.
Ну так я и хотел узнать, именно строк уже сколько суммарно.Всего 300 штук?И почему, если та же Racktech - это 128 строчек для htaccess. А различных подсетей у вас же целая куча, что-то не сходится.
Racktech я пока не блокировал, собираюсь - они пока мало докучают, 2-3 визита.
И никакие CF & антиботы с нудными капчами не нужны.
Там же в блокнотах / notepad+ и проч строки подписаны, сразу видно количество.Ну т.е. вносите в правила только тот диапазон, что вам попался на глаза, правильно понял? И суммарно там всего 40 строчек?А не все сотни диапазонов конкретной подсети.Или речь про 40 отдельных подсетей, по которым настроены ограничения.
У меня одной только битерики 225 строк
+ штук сорок своих добавленных, которых в метрике ловлю и проверяю
Нагрузка на сервер вообще упала, когда всякую ненужную дрянь отсек.
Причем обратите внимание, 8 диапазонов по 4 протоколу.И 120 - по 6 протоколу.Чисто ради интереса, сколько у вас уже строк в htaccess?
Не считал - вся битерика + еще штук 40
Да - по 4ому пошли, видимо выдыхаются ))