Полностью iptables -L -n -v покажите и iptables -L -n -v -t nat.
Такое может быть, например, если соединение с этого ip уже было открыто, а вы добавили его позже, либо есть в nat таблице prerouting правила, срабатывающие до фильтрации в цепочке input.
До тех пор, пока не подберут, не опасен.
comm -1 -2 <(sort whitelist.txt) <(sort blacklist.txt)
grep -F -x -f whitelist.txt blacklist.txt
Там хоть в долларах падает, а в РСЯ в рублях 😒
"Типа AWS":
Google Cloud, Microsoft Azure
что вы имеете ввиду под "объем загрузки"?
v1p3rrrrr, да у вас всё прекрасно, у меня вот 35-40 тысяч уников в сутки и 800 рублей в сутки капает. Зависимости дохода от посещаемости практически нет, прыгает на десятки процентов как пульс у инфарктника. У гугла всегда все ровно и линейно было.
Я к trafmag подключился после того, как google посчитал сайт нехорошим. одна выплата была, но платят они как то так. Если есть другие варианты с приличной рекламой тоже был бы рад услышать :)
Если вас именно размер образа беспокоит, то лишнее "FROM python:3.7-stretch", замените на "FROM python:3.7-alpine":
REPOSITORY TAG IMAGE ID CREATED SIZEpython 3.7-stretch 2053ca75899e 4 hours ago 929MBpython 3.7-alpine bb1ccaa5880c 2 weeks ago 86.7MB
Вы же понимаете, что данные в образе хранятся слоями, т.е. если у вас от базового образа изменения несколько файлов, то только они и будут запушены? И если в репозитории у вас 10 версий вашей программы на основе базового образа, то это не будет 10 гигабайт?
Sly32, конечно в репозитории должны храниться все собранные образы. Смысл - они версионированные и всегда можно откатиться к нужной версии. Почему они у вас "несколько гигов"? Неправильно собираете, не удаляя промежуточные какие-то файлы из сборки?
Какой то странный у вас рабочий процесс. Обычно git и билд и пуш в свой репозиторий делается на машине разработчика (ну или на CI сервере отдельном), а на проде делается docker-compose pull && docker-compose up -d