- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте! Вот столкнулся с школьным досом, флудом как правило с 1, 2-х ip. Найти и заблокировать дело 10 минут, но всё таки хотел бы спросить у вас, как можно это автоматизировать?
Я думаю начальный и средний уровень доса, флуда можно отразить непосредственно с сервера клиента. Кто может подсказать свежие статьи на эту тему, гайды, мб скрипты волшебные :D
Возможно у кого есть свой способ?
ПС. стоит Апач.
http://www.zdziarski.com/blog/?page_id=442
http://dominia.org/djao/limitipconn2.html
можно поставить nginx перед апачем, там лимиты задаются "из коробки"
Анализируйте вывод tcpdump, нарисуйте фильтры по количеству запросов за определённое время, SYN_RCVD, количество соединений, количество запросов корня сайта.
Анализируйте лог nginx, выделяйте превышение лимита зон (смотрите параметры limit_req_zone, limit_conn_zone, разобраться с ними обязательно).
Можно ещё придумать конвейр, в который заталкивать URL запросов и анализировать частоту.
Поставьте в исключения IP сапы, потому что улетит в чёрный список 146%.
Помимо бана, нарисуйте механизм автоматического разбана после прошествия времени.
Спасибо господа. Я думаю это перебор наверное, хотя...
С nginx ни разу не работал, так что на изучение потребуется время, да и сайты + по завязано на апаче.
Всё таки для начала попробую на апаче скрип настроить какой найду, подпилю под себя.
С nginx ни разу не работал, так что на изучение потребуется время, да и сайты + по завязано на апаче.
Поставить фронтэндом — это сложно лишь на первый взгляд.
На деле, берём уже готовый рабочий apache и меняем порт. Запускаем nginx, и вот трафик забегал через реверс-прокси.
Одно это снизит нагрузку при http флуде в разы, так, что никакой защиты может не потребоваться.
Пойду почитаю :)
А сам по себе нагрузку с апачем сильно на сервер выдаст? От непосредственной работы, запросы та наверное быстрее будет обрабатывать.
С фронтэндом быстрее получается, архитектура nginx такова, что он не ложится от большого количества медленных запросов + кэширует.
Реально реактивная вещь, если по-серьёзному, то только так. Одинокий Apache никогда не достигнет той же нагрузочной способности.
Да вот я смотрю это достаточно серьёзные вещи. Для этого и сервер нужен хороший, а у меня оч. слабенькое ведро :)
KitayacVsupez, заблуждаетесь.
У вас сейчас под нагрузкой apache памяти выжирает за 10 nginx.
Как раз для слабых конфигураций строго показан быстрый фронт энд.
Читаю, вроде понятно. У меня в принципе та статических страниц почти нету, всё стоит на кмс где в основном динамические страницы. Опасаюсь я ставить такую связку :)))
У меня в принципе та статических страниц почти нету, всё стоит на кмс где в основном динамические страницы.
Вот смотрите: клиент отправляет запрос, ждёт получения ответа. Apache включает всю свою дурь, к примеру, порождает для этого процесс, который работает с клиентом до закрытия соединения (keep-alive включено?).
Теперь представим, что клиентов много, и каналы связи у них неидеальные. С каким скрипом будет работать этот механизм.
Поместим nginx на фронт. Он принимает запрос, передаёт apache в порядке очереди. Потом обратно, так же. Между ними keep-alive можно и выключить, т.е. всё происходит очень быстро, Apache занят только своей прямой обязанностью. Клиент для него nginx, и он оптимален в плане скорости.
С внешним же клиентом работает nginx, который ждёт, когда информация передастся, терпит, пока соединение не закрыто, и вообще, занимается всякой хренью, потребляя при этом мало памяти и почти не нагружая процессор.
Опасаюсь я ставить такую связку
Если начистоту, боитесь нового, так? Понимаю.