- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
а POST или GET запрос типа myvar=coccoc файрвол с такими настройками пропустит?
не пропустит, еще:
* аплоады
* если используется аякс - тоже блок
* также не даст возможности разместить страничку о "снежном человеке" http://...../Yeti.html
* и заблокирует переходы с сайтов о "снежном человеке" (поле реферер в запросе), кстати увидел в правилах блок Nigma.ru, т.е. с нигмы на сайт перейти тоже будет нельзя.
* куки - тоже блок
ps: такими правилами файрвола хорошо настраивать сервер для врага своего, а не себе. 😂
upd: это только то, что лежит на поверхности. с сервера софт полезет за апдейтами CMS или системы куда-то на 80-й порт?
будет прямо как ходьба по минному полю... yum, apt-get и прочие апдейтеры панелек, антивирусов, цмсок и т.д.
Гуглбот crawl-delay не понимает. Нужно в https://www.google.com/webmasters/tools/home выставлять.
Где конкретно находится эта настройка? Не могу найти ничего похожего..
Тоже на одном большом сайте было как у автора, парсили все кому не лень. Боролся баном по айпи постепенно, сейчас парсят, но не так много, забил на них.
admak, а если так? Заметил что блокируется только поиск по слову Yeti(post запрос), переход с сайта нигма.ру норм, так же стр /Yeti.html открывается.
G-and-Y, не нужно скакать с уровня на уровень. А если https? Тоже iptables?
Это файрвол транспортного уровня. Пусть в транспортном и остается.
Если хотите что-то подобное блокировать на уровне сервера, то используйте например fail2ban. Там и протоколы распарсены по полочкам, и регулярки (вроде?) можно...
Для тех, кто по каким либо причинам не использует nginx можно сделать фильтрацию нежелательных ботов через фаервол на сервере. Для этого добавляем такие строки:
в файле /etc/sysconfig/iptables сохраняем изменения и перезапускаем службу все, боты будут блокироваться на уровне фаервола сервера.
А если nginx работает, как этих ботов отвадить? Только по IP банить?
То, есть то тому как он представляется не получиться блокировать?
G-and-Y, не нужно скакать с уровня на уровень. А если https? Тоже iptables?
Это файрвол транспортного уровня. Пусть в транспортном и остается.
Если хотите что-то подобное блокировать на уровне сервера, то используйте например fail2ban. Там и протоколы распарсены по полочкам, и регулярки (вроде?) можно...
fail2ban собственно в iptables заносит за вас на основе каких либо данных. Для этого обычно используют логи, например сервера, и да, регулярками логи и парсятся.
fail2ban собственно в iptables заносит за вас на основе каких либо данных. Для этого обычно используют логи, например сервера, и да, регулярками логи и парсятся.
Именно что приложение высокого уровня работает с данными обработанными соответствующим высокоуровневым софтом, и отдает команду низкоуровневому файрволу. Это именно что его задача, и правильный инструмент. Невозможно придумать правила для iptables которые будут банить по юзерагенту, если протокол будет https. Без DPI не разрулить. А по логам - запросто.
С другой стороны глубокий анализ, с расшифровкой всея, регулярки по нему и т.п. - ресурсоемки. Зато бан по IP уже занесенному в таблицу iptables - операция стравнительно дешевая.
Именно что приложение высокого уровня работает с данными обработанными соответствующим высокоуровневым софтом, и отдает команду низкоуровневому файрволу. Это именно что его задача, и правильный инструмент. Невозможно придумать правила для iptables которые будут банить по юзерагенту, если протокол будет https. Без DPI не разрулить. А по логам - запросто.
С другой стороны глубокий анализ, с расшифровкой всея, регулярки по нему и т.п. - ресурсоемки. Зато бан по IP уже занесенному в таблицу iptables - операция стравнительно дешевая.
Так никто не спорит. Просто кто такие боты? Гости сайта неаторизованные, для них динамика то и не нужна, то есть в большинстве случаев хватает статического кэша на фронте, если конечно это не ддос и не ложится сеть от этого. И банить никого не надо :)
admak, а если так? Заметил что блокируется только поиск по слову Yeti(post запрос), переход с сайта нигма.ру норм, так же стр /Yeti.html открывается.
зачем нужна подобная рулетка с iptables?
nginx работает шустро, нагрузку держит отлично, правильно разбирает все заголовки, в том числе и https. еще удобно в nginx-е настроить отдельный лог для непотребного трафика и иногда просматривать его, для дальнейшего подкручивания фильтров. ведь случайно гайки можно и пережать...