- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня перед apache стоит varnish. В последнем настроил правило ограничения частоты POST-запросов к wp-login.php и xmlrpc.php. В результате большинство из них не доходят до апача и не грузят сервер вообще.
Прикол в том, что описанный мною случай был как раз на Бегете.
А давно это было? Я их фишку с кешированием заметил где то с декабря.
Причем совершенно случайно, подправил скрипт, а он не работает, вернее правки не работают, начал копать, оказалось кеширование, потом ТП объяснили, что они так борятся с аномально возрастающей нагрузкой на определенные скрипты...
Давненько. Год, может полтора.
меры принимаются автоматически. Например тот же бегет в этом случае автоматом начинает кешировать PHP скрипт и обновлять кеш раз в пять или десять минут, а на подобные запросы отдавать NGINXом статическую сохраненную в кеш html страничку. :-)
я понял вас. Вы наверное из тех, кто пользует автоматически устанавливаемые хостером CMS через одну кнопку в панельке.
Тоже столкнулся с проблемами безопасности
Неохота прятать страницу входа, чтобы потом не забыть где что правил, а плагин типа Wordfence Security - мне показалось, сильно грузит сайт.
Вот такой плагин в интернетах хвалят, с простой капчей, ее можно повесить, на страницу входа юзера и администратора и т.д. - нужно решить задачки, аля 10+?=12 . Думаю, его все втречали на блогах.
https://wordpress.org/plugins/captcha/
Вопросы техническим специалистам:
1. Это будет затрачивать большие ресурсы как мощные плагины безопасности?
2. В базу пишется какая-то инфа от этого плагина, если вдруг захочется его удалить и не иметь лишних записей и не раздувать размер?
3. Защитит от Брута? Если пароль больше 20 знаков и на антигейте придется тратить много
1. Это будет затрачивать большие ресурсы как мощные плагины безопасности?
тот плагин, который вы упомянули не просто защищает от перебора. Но, второй вариант будет затрачивать меньше ресурсов.
2. В базу пишется какая-то инфа от этого плагина, если вдруг захочется его удалить и не иметь лишних записей и не раздувать размер?
На сколько я помню, пишется. При удалении - удаляется.
3. Защитит от Брута? Если пароль больше 20 знаков и на антигейте придется тратить много
От подбора пароля - защитит. От бесполезной нагрузки - скорее всего нет.
Как вы себе брут представляете? По списку бот стучится по разным сайтам, перебирая из словаря пароли. Он не смотрит, есть там капча/фигапча.. от тупо отправляет запросы и слушает ответ, занося их в лог.
тот плагин, который вы упомянули не просто защищает от перебора. Но, второй вариант будет затрачивать меньше ресурсов.
ок
На сколько я помню, пишется. При удалении - удаляется.
Поточнее кто-то может сказать? (стараюсь поменьше ставить плагинов, чтобы сайт был шустрым)
От подбора пароля - защитит. От бесполезной нагрузки - скорее всего нет.
нагрузка - понятно, подбор - ок
Как вы себе брут представляете? По списку бот стучится по разным сайтам, перебирая из словаря пароли. Он не смотрит, есть там капча/фигапча.. от тупо отправляет запросы и слушает ответ, занося их в лог.
Я представляю итак как вы написали.
И так что, возможно в моем случае, есть сайт, который мешает в ТОПе и его целенаправленно начинают долбить подбором. Ну и думается, увидев капчу быстрее поймут, что долбить нет смысла. Жизненно?
Поточнее кто-то может сказать?
Поставьте/снесите и сравните базы. Делов-то.
стараюсь поменьше ставить плагинов, чтобы сайт был шустрым
Так я предлагал вариант вообще без плагинов :)
И так что, возможно в моем случае, есть сайт, который мешает в ТОПе и его целенаправленно начинают долбить подбором. Ну и думается, увидев капчу быстрее поймут, что долбить нет смысла. Жизненно?
да фиг знает. Топ там, не топ, подбор -то чем поможет? Админский доступ хотят получить?
Если смотрит кто-то глазами, что там есть капча - может быть да, поковыряются и откажутся от затеи. А если нет - так и будут стучаться, есть там капча или нет.
Проще все на ходу выяснить, просто периодически просматривая логи :)
Рубаните им по IP вообще доступ ко всему сайту через .htaccess
Если наберется много записей, начнет тормозить сайт.
---------- Добавлено 28.04.2016 в 16:33 ----------
Как вариант, можно использовать CleanTalk Anti-Spam, там есть хорошая штука для блокирования доступа ботам к сайту https://cleantalk.org/cleantalk-spam-firewall
Здесь больше о том как работает https://blog.cleantalk.org/cleantalk-anti-spam-released-a-new-version-of-the-spam-firewall/ (на английском)
Для SFW можно добавлять в ЧС IP и подсети.
Если наберется много записей, начнет тормозить сайт.
А сколько это много? У меня забито около 2000 адресов, вроде сайт не тормозит.