- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
я считаю, что тут пока рановато бегать к дядькам. тем более что только первая доза у вас бесплатно.
Из логов apache status что вы тут выложили, преположу что атакует Dirt Jumper бот нового поколения, на коленке его крайне сложно отбивать....
И как именно он работает и почему сложно? Я не вижу ничего особенного. просто много ботов постепенно включаются в атаку и поэтому все лагает весь день. оно бы в принципе успевало бы обрабатываться и блокироваться, если бы не описанная проблема. Лагать начинает в тот момент, когда число процессов в состоянии reading критическое.
То, что я выложил вообще необъяснимо.
Можно объяснить на самом деле высокой загрузкой и какими-нибудь неточными показаниями top в centos. Либо нехваткой какого-то ресурса.
netwind, Вернее это G-Bot описание в Гугле, у вас я так понимаю форум и атакуют рандомную страницу.
kxk, ничего путевого не нашел в гугле.
страницы грузит не рандомные, а по небольшому списку явно составленному человеком. конечно же все страницы тяжелые.
netwind, Вы думаете просканировать ваш форум ботом большая проблема и диддосер будет что-то кроме команды дидос ботнету делать руками ?
kxk, я думал повадки важны для идентификации ботнета.
лучше что-нибудь касательно проблемы подскажите.
И в общем случае, что вы вообще делаете, когда в нормальных условиях сервер клиента справляется, а в условиях отражаемого ддос нет ?
фильтр же не может отменить предыдущие 20 запросов, которые ушли к клиенту до превышения порога. Но эти запросы нагрузку зарядят такую, что сервер помрет.
netwind, Лимичу всё что лимититься, кеширую всё что кешируеться и слабо кешируеться :) И причём всё это на фронте за Джунипером :) Давайте домен и ip куда проксировать в лс поднимем туннель и посмотрим на ваш ботнет - за смотрины денег невозьму :)
kxk, пока не нужно. я нашел другой способ отбиться, но ситуацию с апачем до конца не понял и все еще хочу понимать.
Пробивает - это значит вешает апач тяжелыми запросами
Фильтруй, кешируй, защищай js
можно попробовать порисовать статистику с server-status у nginx. Интересно что будет в такой момент. (соотношение read/write/wait ). Интересно может выглядеть что-то вроде http://exchange.munin-monitoring.org/plugins/nginx-combined/details
Параметры сервера можно узнать ?
php модулем подключен ?
Пробивает - это значит вешает апач тяжелыми запросами
Фильтруй, кешируй, защищай js
я не готов портить нормальный сайт этой фигней. Тем более что ресурс еще есть.
Параметры сервера можно узнать ?
php модулем подключен ?
Core2 E8500 на 3.16GHz и 4 гб памяти. php модулем.