DenisVS

Рейтинг
644
Регистрация
01.05.2010

charset windows-1251;

В секции server требуемого виртуалхоста

AddDefaultCharset WINDOWS-1251 в .htaccess

Причём здесь сервера?

Перенесите порт ssh случайно вверх, вероятность взлома резко уменьшится.

root-у, надеюсь, запретили коннектиться? Пусть будет пользователь с именем <абракадабра>, привелегии которого поднимаются su или sudo.

Поставьте что-то вроде sshguard, будет блокировать атакующих.

В тяжёлых случаях применяйте технологию Port Knocking. Практически стена со стороны ssh.

Кстати, повод для темы "слезоточивые фильмы".

Мне понравился "Белый плен". Реально, не только "птичку жалко", но и безвыходная ситуация героя доставляет.

Добавлю: рекомендую к семейному просмотру. Благородные люди, верные животные...

Вроде бы юникс-сокет побыстрее, чем tcp/ip.

Я когда нахреначусь, тоже могу расплакаться от переизбытка чувств.

zexis, да, я примерно это и хотел услышать. Интересно, кто и как живёт с этой дилеммой.

Это у вас общее ограничение, или только на бэкэнд? У меня, как выше писал, отдельно настроено.

Вопрос "лучший движок форума" бессмысленен, повторяю из раза в раз. Критериев лучшести вы не привели.

Некоторые бесплатные хостинги потянут некоторые бесплатные движки. Но устраивать вас это будет, пока вы будете на форуме один. Дальше станет уныло.

madoff, началось с того, что друпаловские сайты стали класть сервер. Разбирательство показало общую неустойчивость к нагрузкам. httpd жрал процессор. Там далеко не всё идеально, ещё буду копать. На данный момент, решил ограничить соединения средствами nginx, а именно, применением limit_req limit_req_zone.

Настройка ограничения для самого фронтэнда на данном уровне моего понимания проблемы устраивает. Т.е. прошёл по всем сайтам, удостоверился, что нет ошибок в загруке статики, сделал запас и на этом усполокоился.

Прокси локейшн получил такой конфиг:

limit_req_zone $binary_remote_addr zone=two:10m rate=2r/s;

limit_req zone=two burst=2 nodelay;

Крутил, чтобы и пользователям было комфортно, всё открывалось, и, в то же время, при серийной загрузке нескольких страниц был отказ. Чего, собственно, добился.

Вот сейчас смотрю в логах, Гугл шастает. Ошибок не выдаёт. Вопрос, хватит ли всем ботам такого? Критичны. само собой, Яндекс и Сапа. Есть бешенные пауки вроде MajesticSEO, которые не понимают директивы в robots, так их я наоборот хочу ограничить, т.к. толку от них нет.

Чувствую, хостеры таким не особо заморачиваются, это одиночкам нужно выжать из железа всё :)

VNC пользовали для управления супермаркетом из другого города.

Всего: 14528