- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Необходимо на сайтах заблочить юзверей из поднебесной. Вопросы зачем и почему не рассматриваются.
Интересует по каким критериям их отлавливать?
Работать будет средствами php, кКуками заморачиваться не собираюсь, локально инфа будет хранится в сессии для ускорения работы.
Пока вижу три варианта или их совокупность:
1. Реферер от основных китайских поисковиков baidu.com и so.com.
2. Отсев по GeoIP (MaxMind GeoIP Lite, ибо бесплатна).
3. Заголовок "Accept-Language" ( ловим zh-CN ).
Может чего забыл или не учел? Возможно достаточно по GeoIP ловить и не заморачиваться?
Необходимо на сайтах заблочить юзверей из поднебесной. Вопросы зачем и почему не рассматриваются.
Интересует по каким критериям их отлавливать?
Работать будет средствами php, кКуками заморачиваться не собираюсь, локально инфа будет хранится в сессии для ускорения работы.
Пока вижу три варианта или их совокупность:
1. Реферер от основных китайских поисковиков baidu.com и so.com.
2. Отсев по GeoIP (MaxMind GeoIP Lite, ибо бесплатна).
3. Заголовок "Accept-Language" ( ловим zh-CN ).
Может чего забыл или не учел? Возможно достаточно по GeoIP ловить и не заморачиваться?
По AS через клоуд.
По AS через клоуд.
Можешь тупо заблокать всю китайскую подсеть для захода.
https://suip.biz/ru/?act=all-country-ip&country=CN
По какому еще признаку, возможно специфичному, можно китайцев фильтровать (кроме ip, search engine и accept language )?
используйте cloudlfare, там много как можно отбить ботов и прочие настройки. например блок по стране и тд.
APNIC по 8 октету заблокируйте и не мучайтесь. Или вам индусы нужны?
Извините, можно подробнее или меня носом ткните в доки.
# 171.0.0.0/8 - блокировать все, кроме 171.22, 171.25, 171.33 (РФ):
SetEnvIf Remote_Addr ^171\.(?!22\.|25\.|33\.) deny_ip
Order Deny,Allow
Deny from env=deny_ip
# APNIC /8
Deny from 1 14 27 36 39 42 49
Deny from 58.0.0.0/7
Deny from 60.0.0.0/7
Deny from 101 103 106
Deny from 110.0.0.0/7
Deny from 112.0.0.0/5
Deny from 120.0.0.0/6
Deny from 124.0.0.0/7
Deny from 126 175 180
Deny from 182.0.0.0/7
Deny from 202.0.0.0/7
Deny from 210.0.0.0/7
Deny from 218.0.0.0/7
Deny from 220.0.0.0/6
# APNIC-ERX /8
Deny from 43 133 150 153 163
# Deny from 171
# APNIC-V6
Deny from 2400::/12
Всем привет!
1. А что делать с бот трафиком из целевого региона?
Например: США - целевая страна. Из Вашингтона льется норм трафик, из Калифорнии только боты. Блокать любой регион США - не выход. В этом случае простить и пропустить на сайт? Или есть еще варианты отлова?
Я вижу только такой: точечно блокать ботов, рвущихся к нашему сайту, по IP адресу. В связи с этим еще один вопрос:
2. Как "вычислить по IP" ботов, если веб-сервер не Apache, а NGINX?
Ткните меня во "что-нибудь" почитать, или подскажите советом тут. За помощь закину плюшку :) Спасибо!