charset windows-1251;
В секции server требуемого виртуалхоста
AddDefaultCharset WINDOWS-1251 в .htaccess
Причём здесь сервера?
Перенесите порт ssh случайно вверх, вероятность взлома резко уменьшится.
root-у, надеюсь, запретили коннектиться? Пусть будет пользователь с именем <абракадабра>, привелегии которого поднимаются su или sudo.
Поставьте что-то вроде sshguard, будет блокировать атакующих.
В тяжёлых случаях применяйте технологию Port Knocking. Практически стена со стороны ssh.
Кстати, повод для темы "слезоточивые фильмы".
Мне понравился "Белый плен". Реально, не только "птичку жалко", но и безвыходная ситуация героя доставляет.
Добавлю: рекомендую к семейному просмотру. Благородные люди, верные животные...
Вроде бы юникс-сокет побыстрее, чем tcp/ip.
Я когда нахреначусь, тоже могу расплакаться от переизбытка чувств.
zexis, да, я примерно это и хотел услышать. Интересно, кто и как живёт с этой дилеммой.
Это у вас общее ограничение, или только на бэкэнд? У меня, как выше писал, отдельно настроено.
Вопрос "лучший движок форума" бессмысленен, повторяю из раза в раз. Критериев лучшести вы не привели.
Некоторые бесплатные хостинги потянут некоторые бесплатные движки. Но устраивать вас это будет, пока вы будете на форуме один. Дальше станет уныло.
madoff, началось с того, что друпаловские сайты стали класть сервер. Разбирательство показало общую неустойчивость к нагрузкам. httpd жрал процессор. Там далеко не всё идеально, ещё буду копать. На данный момент, решил ограничить соединения средствами nginx, а именно, применением limit_req limit_req_zone.
Настройка ограничения для самого фронтэнда на данном уровне моего понимания проблемы устраивает. Т.е. прошёл по всем сайтам, удостоверился, что нет ошибок в загруке статики, сделал запас и на этом усполокоился.
Прокси локейшн получил такой конфиг:
limit_req_zone $binary_remote_addr zone=two:10m rate=2r/s;
limit_req zone=two burst=2 nodelay;
Крутил, чтобы и пользователям было комфортно, всё открывалось, и, в то же время, при серийной загрузке нескольких страниц был отказ. Чего, собственно, добился.
Вот сейчас смотрю в логах, Гугл шастает. Ошибок не выдаёт. Вопрос, хватит ли всем ботам такого? Критичны. само собой, Яндекс и Сапа. Есть бешенные пауки вроде MajesticSEO, которые не понимают директивы в robots, так их я наоборот хочу ограничить, т.к. толку от них нет.
Чувствую, хостеры таким не особо заморачиваются, это одиночкам нужно выжать из железа всё :)
VNC пользовали для управления супермаркетом из другого города.