Ну и нафига там нужно какое-то окно? Какое вообще отношение энджинкс имеет к БД?
Сейчас речь не про БД, по теме будет что-то?
Решил сортировать по трафику
Первый ec2-52-11-5-55.us-west-2.compute.amazonaws.comВторой ec2-34-211-9-94.us-west-2.compute.amazonaws.com (34.211.9.94)Третий ec2-52-11-161-32.us-west-2.compute.amazonaws.com (52.11.161.32)И те что трафик не тянутЧетвертый 52-70-240-171.crawl.amazonbot.amazon (52.70.240.171) Пятый 3-224-220-101.crawl.amazonbot.amazon (3.224.220.101)
Как и куда в амазон писать жалобу?
У тебя что, БД в интернет смотрит?
В локальный сервер на ССД
даталайфенджин
Вот сюда.Spider HitsНе думаю, что яндекс с гуглом столько накидали хитов.
Подозреваю, у вас там вагон клаудиботов, амазонботов, семраш, ашрефс и прочего подобного непрошенного. Что же они такое качают, что терабайт трафика выбрали?
Смотрите именно по юзерагент в логах.
Вот что мне график выдает по интернету за сутки
за неделю
Тоесть 10 лет никому не интересен был, а тут мне все накидали ботов под гигабитный потолок :)Не понимаю почему лимитирование скорости не работает по нжинксу, мне надо 100 мбит оставить окно для мускула
Краткий пересказ логов из нжинкса за половину этого дня. Как-то многовато для сайта с 2к в день посещаемостью по аналитике :)Куда копать посоветуете?
Значит, просто не сталкивался с теми, что забивают.
Это ничего не означает в контексте "вирусологии".
Однако в любом случае надо просто изучить логи сервера.
Логи чистые, но миллион запросов на файлы медиа
limit_rate 500m;
в хттп нжинкса не дают результата, уже начинаю запутываться.
Проблема не в клауде, а в том, что надо знать настройки, чтобы всякие пользователи которые начинают сканировать сайт, начинают тянуть трафик со всем что есть на странице. Клауд начинает это все дело кешировать, что при прохождение банально 100 страниц с медиа на странице, н ачинает просто тянуть в одно лицо куча гигабайт. Видел как сканнеры некоторые отказывались сканировать сайты на клаудах, видимо там знают как настроить клауд правильно и отсекать программы со сканнерами страниц. Теперь и у меня вопрос, как это сделать? Вот для теста взял первую прогу тут на серче сканировать сайт, и вуаля, потолок под гигабит забит.
Вирусы с которыми я сталкивался не забивали под потолок трафик, проверил доступы, никаких не проверенных людей не заходило по ссш.
А может быть сервер слабый...
А может быть не настроен...
А может быть вирус попался...
А может быть Яндекс и Гугл пришли индексировать сайт...
Сервер мощный, не в мощности проблема а в потолке трафика уже
Настроено по стандартам
Вирус который генерирует трафик при включенном нжинксе и не генерирует при выключеном?
Всю жизнь индексировали, и вдруг решились, что надо еще картинки тянуть для индексации на нжинксе