- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если что название переменных окружения можно уточнить в phpinfo.
в PHPINFO они есть, но условия не проходят, ни с HTTP:, ни без него :(
Вопрос к знатокам nginx - как будут выглядеть аналогичные выражения для nginx'а?
Ещё есть нечто:
Но с этим я не работал...
Попробуйте разобратся, наверняка ворпос поднимался, так что ищите...
в nginx пока нет вложенных if
но есть такой хак
set $cvar "$http_user_agent#$remote_addr";
if ($cvar ~ "^xxxagent#22\.22\.22") {
return 403;
}
По моему защищаться отслеживая заголовки - неэффективно, что мешает скрипту слать любой юзер-агент?
Скорее всего наиболее эффективным будет блокировать ip при закачке большого числа файлов в единицу времени, например, не более 10 в секунду, не более 100 в минуту и т.п. - подобрать с точки зрения здравого смысла, можно сделать страницы-заглушки (на которые не зайдут поисковые роботы и пользователи), при загрузке которых банится ip, также можно отследить порядок загрузки массива страниц (может идет по порядку с карты сайта или по меню или в порядке перелинковки страниц на сайте) - банить при повторении очереди и т.д. и т.п.
в nginx пока нет вложенных if
но есть такой хак
Спасибо.
По моему защищаться отслеживая заголовки - неэффективно, что мешает скрипту слать любой юзер-агент?
В моем случае user_agent постоянный, поэтому чем проще защита - тем лучше. А вообще идея ясна, спасибо.
Я бы для начала выяснил, кто тебя грабит. И в этом гугл тебе в помощь, если у тебя действительно уникальный контент вытянуть дубликаты контента не составит труда.
Ну дальше - например, создать контент "Вот эти(и перечислить) - козлы". Если он не модерируют новости, то они эту новость у себя на сайте поставят :)
Я бы для начала выяснил, кто тебя грабит. И в этом гугл тебе в помощь, если у тебя действительно уникальный контент вытянуть дубликаты контента не составит труда
Искал, пока не нашёл.
Ну дальше - например, создать контент "Вот эти(и перечислить) - козлы". Если он не модерируют новости, то они эту новость у себя на сайте поставят
Грабят не новости, а статьи (что-то типа энциклопедии). Ну и сам метод борьбы сомнительный :)