Могут ли быть проблемы при закрытии udp?
Может udp нужен каким сервисам ОС?---------- Добавлено 21.02.2017 в 01:38 ----------Оптимизайка, спасибо, поправил. А в целом?
я имею ввиду не заголовки для кеширования в браузере, а кешироавание того, что отдает бакэнд.
vitzer, посмотрите логи - возможно кто-то в это время активно сканировал сайт.
Кроме оптимизации mysql - поставьте кеширование в nginx.
Еще может быть такой вариант:
атакуют конкуренты, а кто-то увидев проблемы у сайта, решил заработать.
Плюсы www:
1) Сейчас сделали столько зон, что в печатной рекламе не поймешь без www - домен это или пробел после точки забыли поставить. :)
2) При цитировании сайта многие движки поменяют www.site.online на ссылку (когда site.online - останется просто текстом). Разумеется, если цитируют без протокола http://site.online
Сам использую без www (редирект).
Написать свою самообучающуюся сеть, которая будет обучаться на обученной выдаче Матрикснета.
Думаю взять сервер.
Как сейчас с каналом, с атаками? Читал, что общая защита канала от атак режет и нормальных пользователей. Или это в прошлом?
Будет два map:
1. первый проверят ЮзерАгент на соответствие нужным ботам (гугл, яндекс...)
2. с переменной с нужным ботом - делаем проверку заголовков.---------- Добавлено 13.02.2017 в 17:07 ----------Dram,
Чтобы не заблокировать новые ip ботов.
Нет, не все.
В первую очередь это для поиска ботов, кто притворяется Гуглботом, Яндексботом.
Придумал еще вариант защиты - анализ Accept-Encoding в заголовках.
Переменная в конфиге nginx: $http_Accept-Encoding
Гугл, Яндекс, Маил - стремятся получить сжатый контент (проверил в логах) и указывают в заголовке "Accept-Encoding".
Не все, но большинство ботов (особенно самопальных) желают получить несжатый контент и ничего не указывают в заголовке (также проверил гипотезу в логах)
Кроме accept-encoding: gzip, deflate - Гугл возможно уже указывает (или будет) в заголовке sdch (не проверил).