в конце 90тых была такае тама - некоторые институты, вузы и т.п. заведения или около того, платили что-то около пятидесяти баксов за контракт, по которому тело после смерти отходило к ним для исследований.
не знаю существует ли сейчас подобная практика, но раньше была точно - неск моих знакомых так и поступили.
один из них отошел пару лет тому в мир иной...
я эту тему заметил еще позавчера, так призаумался, вспомнил тот случай, а сегодня поинтересовался у старых знакомых хоронили ли его. говорят мол кремировала семья, то есть тот контракт оказался до одного места...
а ведь на самом деле хороший вариант избавить родных от ненужной суеты даже с кремацией. жаль не рабочий...
ну этим методом пользуются что бы прибить резкий всплеск.
мне неск. раз приходилось "на коленке" бороться с ДДОСом, когда это вообще было возможно.
но за 15мин писанные анализаторы логов плохо справлялись с нагрузной в несколько тысяч ботов.
можно было либо анализатор оптимизировать, либо зарезать вот так вот часть стран, а там уже и анализатор потягивался. и постепенно убирал(добавлял) страны...
в итоге в забане под 10К айпи, а все это пофильтровано скриптом на 3 строки и простейшими лимитами в nginx.
первое, но замените -A на -I, дабы правило сработало в любом случае.
можно добавить -i eth0 (интерфейс который фильтруете)---------- Добавлено 02.11.2016 в 21:46 ----------отличаются они тем, что в первом случае команда добавляется в конец цепочки, то есть может и не сработать (скорее не сработает если у вас уже что-то настроено в iptables).
вторая добавляется в самое начало цепочки, то есть сработает однозначно и первой. ! -i lo означает для всех интерфейсов, кроме loopback
ну так весь сайт не нужно копировать ежедневно. раз в недельку делаете полный бекап, а остальные 6 раз бекапите только то, что обновилось. это называется инкрементальный бекап...
Какой же это ДДОС? Там несчастных 10 запросов/сек судя по куску лога, что вы привели.
От подобного спасет самая примитивная защита на nginx с limit_req/limit_conn с последующим занесением отлупов nginx-a в iptables
> Выходит, что с помощью защиты на один домен, можно защитить неограниченное количество доменов?
нет. не выходит.
защита на домен будет работать только для этого домена.
там фильтр на L7 по GET/POST/HEAD/... example.com - эти запросы пойдут через защиту.
get domain1.com пойдет по бесплатному тарифу, то есть в случае атаки на него просто будет заблокирован.
вы это на MacOS что ли делаете??
> Перенесла архив сайта в папку xampp
архив сайта должен лежать по-пути, который указан в httpd-vhosts.conf в секции VirtualHost директивой DocumentRoot
например у вас там нечто, на подобии:
<VirtualHost *:80> ... ServerName mysite.ru ServerAlias www.mysite.ru DocumentRoot /var/www/mysite ... </VirtualHost>
значит архив сайта нужно распаковать в /var/www/mysite
и соответствующая запись в /etc/hosts должна быть -
127.0.0.1 mysite.ru www.mysite.ru locahost ......
и httpd нужно перезапустить (xampp)...
Ну Оптимизайка в общем-то толковое решение выдал.
Из всех посетителей среднестатистического сайта/портала зарегистрированных, как правило, небольшой процент.
Полноценная динамика от CMS нужна только зарегистрированным и залогиненным, а остальным (гостям) можно и тупо статику отдавать из кэша nginx, то есть снизить нагрузку создаваемую гостями практически до нуля (там на уровне погрешности она будет).
Это как правило проще и дешевле, нежели чего-то профилировать и оптимизировать.
Тем более в случае с бложиком, каким-нить портальчиком..
Реже кэшируют форумы, но я как-то и форумы кэшировал по 10-15сек, чем снижал нагрузку многократно, а пользователи и не замечали.
Все зависит от нагрузки.. Иногда проще генерить один раз страничку, а потом, в течении даже 15сек отдавать ее гостям из кэша, и это уже дает ощутимое (в разы) снижение нагрузки на сервер.
Но тут нужна поддержка со стороны CMS. В общем случае это какая-то кука, которая разнится ля юзеров что залогинены и для гостей.
Еще лучше когда это часть движка, как например в drupal есть модуль boost...
это вольный перевод с размышлениями по-теме...
Люди, которые обитают тут годами и есть эксперты, по бОльшей части.
чего нельзя сказать о вас, особенно после вашего утверждения о том, что php-fpm де быстрее апача в 3 раза, а nginx перед апачем не несет никакой нагрузки смысловой.
такая новость безусловно для вас - mod_php в среднем на 30% быстрее (и меньше памяти потребляет в случае с mpm_worker), нежели огород с fast-cgi...
любым 15ти-баксовым роутером с возможностью прошивки OpenWRT это легко реализуемо, хоть на L7 анализируй сессии...