Не видел такого.
Да, есть такая опасность. Но я не программер, поэтому мне подходит только если вариант внешнего сканнирования тем же metasploit, но - нет знаний пока.
Плюс - есть желание кому-то передать, чтобы снять с себя головную боль.---------- Добавлено 04.02.2013 в 13:37 ----------есть "Usability: консультации и аудит" - мне юзабилити не нужно
и "Оптимизация, продвижение и аудит", которое "Предложение услуг по оптимизации сайтов". Но там одно сео.
1) обе сетевые на .110 - в мост, и в свойствах полученного моста прописываем оба айпи.
2а) теперь на _каждой_ машине добавляем роут к другой сети через этот .110 :) Потому что эти машины должны знать, как доставить сообщение в чужую сеть.
2б) Можно выставить везде подсеть с /24 на /23 или даже /16 (те самые 255.255.0.0), тогда машины будут как бы в 1 сети, в этом случае даже комп не нужен, просто между роутерами кидаем кабель напрямую.
2в) как 2а, но надо прописать роуты на обоих роутерах, чтобы они опять же знали про соседние подсети, и соединить их напрямую.
Иначе никак. Машинам надо знать, что конкретная подсеть доступна не через роутер, а через отдельную машину, поэтому и надо писать на роутерах или на каждой машине.
2г) изменить шлюз на dhcp, чтобы шлюзом был 110, но тогда уже 110 должен заворачивать весь траф на роутеры, но сложно сделать так, чтобы весь траф гнался не через 1 роутер а через оба, и если .110 выключить - все останутся без инета.
Можно еще подумать через управляемый свич, который сам умеет несколько роутов, но не уверен.
ROUTE [-f] [-p] [-4|-6] command [destination]
[MASK netmask] [gateway] [METRIC metric] [IF interface]
если на каждой машине (для 0.0), будет так: route -p add 192.168.1.0 MASK 255.255.255.0 192.168.0.110
Подключим, спасибо.
А с внешней антивирусной проверкой?
http://internalsecurity.ru/services/
80к
Тоже ищу аналоги, для сравнения. И понятно, что можно найти на веблансе дешевле в 10-20 раз, но без гарантий..
Простите, не понял.. кому что сделали. Если слили - это не я, честно.
Контроль это только откатить изменения, но для активного сайта не панацея - добавлять всякие документы, контент юзера и подобное - не очень хорошая идея, это лучше в простые бэкапы. Поэтому и не отследить изменение/очистку содержимого/добавление зараженного документа с бэкдором. А если добавлять всё - надо смотреть на другие системы контроля, которые спокойно пережуют как сайт в 10 гиг, так и с 50к+ файлами, а также умеют сохранять и восстанавливать атрибуты файлов, даты модификаций, и делать частичный откат (понадобилось откатить на 3 ревизии назад, сохранив новые файлы на месте). В этом плане свн очень неудобен.
Ну и опять же вопрос не столько в лечении (бэкапы никто не отменял), сколько в обнаружении КАК это было сделано. Какой юзер, какие скрипты участвовали, какие были запросы и обращения, в идеале - уязвимые строки и какие дыры, но это уже фантастика.
Увы, защита слаба. 600+ сайтов на 6 версиях одного самописного дико дырявого движка + сотня на другом самописном движке.
Хотя похоже сломал спец, а потом накатал бота - заражения были через баги движков, от имени самих владельцев, но массово.
Всякие mod_security и naxci подключаю, но нет пока вектора защиты.
Стоят.Но малоприменимы -- rkhunter поможет мало, систему не заражают. А если систему сломают, всё переставлять.
Для контроля самих сайтов ставим уже svn, им проще отслеживать изменения и реверт проще и быстрее.
fail2ban поможет тоже мало - ссш на юзерах закрыт, а ловить им попытки перебора паролей/багов и прочего в апаче - явно непрофильно. Тогда mod_security.
Вот это полезно для поиска дыр, тогда и метасплоит можно упомянуть, но тоже чуть не то. Хотя им тоже прогоним сейчас.
откуда 2?
логин, откуда, пароль, права, базы.. Хотя ответ в теме уже есть, да. А я просто хочу уточнить про дамп для репликаций.
sudo su csh
и привет баш. По сути, надо логгировать tty's
В любом случае, sudo запрещать полностью не вариант, использовать другие шеллы тоже. В частности, для скриптования у нас нужны sh, csh, zsh
А как быть, когда баз более 1к? Не словим лимит на длину аргументов? А дампить в несколько проходов - вешать лок на всё время дампа, что может вызвать 503 на часик-другой...
Дампить просто по базе не вариант, если используем --master-data
Можно конечно тормознуть базу, сделать снапшот и уже с ним играться, но это изврат + простой в любом случае на некоторое время. Пока вижу вариант только через дамп слейва...
А пропустит он пару ошибок, через которую когда-нибудь сломают... И потом, он может специально оставить закладку/пропустить баг, чтобы потом его продать или сам поюзать. Типа заказывайте снова меня, еще денег хочу.
Аудит тоже входит в исправление ошибок, но надо проработать слой "а если снова".