- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
И да, я его не по юзер-агенту нашел :), он потом в я.вебмастере через сутки эту
активность показал.
Бывает и так...
А прибежал почему? Это как раз те самые запросы типа хуху или аааа, которые метрика моментально передает боту и тот бежит их индексировать, реально игнорируя все ограничения. У меня так было, во всяком случае.
4) в анализе логов есть очень много ньансов. Например, когда нет атаки его лучше автоматически отключать, что бы не побанить быстрых пользователей.
Как определить момент, когда нет атаки? :)
Как определить момент, когда нет атаки? :)
Подсчитать количество строк за последнюю минуту анализируемого файла access.log.
Если меньше некоторого значения, атаки точно нет.
Если больше некоторого, значит есть.
Подсчитать количество строк за последнюю минуту анализируемого файла access.log.
Если меньше некоторого значения, атаки точно нет.
Если больше некоторого, значит есть.
А если это просто наплыв пользователей?) это может быть кто то дал ссылку на популярном ресурсе...
А если это просто наплыв пользователей?) это может быть кто то дал ссылку на популярном ресурсе...
Нужно подобрать порог на количество кликов в минуту, включающий поиск ддос ботов в логах, что бы он был оптимален.
Был выше возможного наплыва посетителей и ниже ддос атаки.
Это вполне возможно.
zexis, это типа юмор такой. Вы пишете "автоматически отключать", а потом ниже выясняется, что на самом деле это означает "две недели подбирать пороговые значения без сна и отдыха" . И еще по мере роста сайта периодически возвращаться к этой проблеме.
Так что некоторым такая автоматика не нужна.
Без сна и отдыха подбирать порог нет необходимости.
Достаточно посмотреть, сколько кликов в минуту в логах у сайта во время наибольшей посещаемости. И увеличить это значение раза в 1,5-2.
Без сна и отдыха подбирать порог нет необходимости.
Достаточно посмотреть, сколько кликов в минуту в логах у сайта во время наибольшей посещаемости. И увеличить это значение раза в 1,5-2.
И толку не будет.
Вчера приходил бот, который долбился по 1 урлу в секунду или даже реже.
Поскольку долбился он в медиавики это давало фееричный профит, процентов 10 cpu он отожрал.
Штук 100 таких точно положили бы сервер по производительности.
По-хорошему надо считать каждый из критичных ресурсов отдельно, и подбирать для них значения после которого вы пользователя обслуживать уже не желаете. А не тупо по хитам в минуту ограничивать .
Это не невозможно, но некий гемор.
---------- Добавлено 14.04.2015 в 15:04 ----------
А прибежал почему? Это как раз те самые запросы типа хуху или аааа, которые метрика моментально передает боту и тот бежит их индексировать, реально игнорируя все ограничения. У меня так было, во всяком случае.
Да черт его знает. Еще раз обновил robots.txt и он довольно быстро отстал.
По мне, так ошибка какая-то у самого яндекса.
Надо сказать, что контент он забирал аккуратно, т.е. он фактически до 100% загрузил
сервер, но не более того, т.е. вероятно срабатывал обычный алгоритм подбора максимальной скорости.
на счет grep надо проверить что быстрее будет ... так как в access log может быть и по 100к записей, а интересующих 1к =)
все нужно разжевывать... что мешает чистить лог после прохода скрипта? 🍿
все нужно разжевывать... что мешает чистить лог после прохода скрипта? 🍿
а зачем тогда нужен лог?)) а если сайт ломанут... то надо будет по логам смотреть как и что... их нельзя изменять, потом может боком выйти