Dimka

Рейтинг
228
Регистрация
07.11.2000

Могут ли быть проблемы при закрытии udp?

Может udp нужен каким сервисам ОС?

---------- Добавлено 21.02.2017 в 01:38 ----------

Оптимизайка, спасибо, поправил. А в целом?

vitzer:
Кэширование включено в настройках домена.

я имею ввиду не заголовки для кеширования в браузере, а кешироавание того, что отдает бакэнд.

vitzer, посмотрите логи - возможно кто-то в это время активно сканировал сайт.

Кроме оптимизации mysql - поставьте кеширование в nginx.

LargoYou:
Если просят 5000 всего-лишь. Ддосят - дешево, дешевым траффиком

Еще может быть такой вариант:

атакуют конкуренты, а кто-то увидев проблемы у сайта, решил заработать.

Плюсы www:

1) Сейчас сделали столько зон, что в печатной рекламе не поймешь без www - домен это или пробел после точки забыли поставить. :)

2) При цитировании сайта многие движки поменяют www.site.online на ссылку (когда site.online - останется просто текстом). Разумеется, если цитируют без протокола http://site.online

Сам использую без www (редирект).

GlebEGA:
В связи с этим вопрос к знатокам: что из этой информации, по вашему мнению, может помочь в продвижении?

Написать свою самообучающуюся сеть, которая будет обучаться на обученной выдаче Матрикснета.

Думаю взять сервер.

Как сейчас с каналом, с атаками? Читал, что общая защита канала от атак режет и нормальных пользователей. Или это в прошлом?

Dram:
можно вариант рабочего кода, как правильно прописать?

Будет два map:

1. первый проверят ЮзерАгент на соответствие нужным ботам (гугл, яндекс...)

2. с переменной с нужным ботом - делаем проверку заголовков.

---------- Добавлено 13.02.2017 в 17:07 ----------

Dram,

Dram:
Отсев ботов ПС от всего остального на 100% делает это

Чтобы не заблокировать новые ip ботов.

Dram:
Что на счет живых юзеров - все ли браузеры отвечают этими заголовками?

Нет, не все.

В первую очередь это для поиска ботов, кто притворяется Гуглботом, Яндексботом.

Придумал еще вариант защиты - анализ Accept-Encoding в заголовках.

Переменная в конфиге nginx: $http_Accept-Encoding

Гугл, Яндекс, Маил - стремятся получить сжатый контент (проверил в логах) и указывают в заголовке "Accept-Encoding".

Не все, но большинство ботов (особенно самопальных) желают получить несжатый контент и ничего не указывают в заголовке (также проверил гипотезу в логах)

Кроме accept-encoding: gzip, deflate - Гугл возможно уже указывает (или будет) в заголовке sdch (не проверил).

Всего: 750