ето как.?
нет. от www-data
владелец
/var/www/www-root/data/curl
тоже www-data
ети поисковики одно пишут а другое делают. robots.txt правила они игнорируют. яндекс мне чуть ли ни каждый день шлет письма что на сайте не найден robots.txt . хотя он там есть
лучше запрещать урл на уровне сервера или php
спасибо. я вот такую штуку нашел
aggregate -q << EOF34.100.182.96/2834.101.50.144/28....EOF
причем тут панель. я вообще в целом. на уровне самого nginx спрашивал
та нет. на месте. просто если закинуть в папку /etc/nginx/fastpanel2-includes/ файл bad_bots.conf
if ($http_user_agent ~* (Ahrefs|majestic|SemrushBot|Go-http-client|mj12bot) ) { return 403;}
то не работает если сайт в режиме php-fpm
Всё просто:
1. создаете файл "черный список" .conf и пишите туда, что хотите запретить.
2. к каждому сайту в sites-available вставляете в сервер
server {
include /etc/nginx/"черный список".conf;
return 301 https://бла-бла
}
про каждый сайт я и сам знаю. речь шла все в одном месте
уточнение. работает если режим работы сайта как php+Apache
для php-fpm нет
только что глянул в логах. оказывается не помог Леня твой вариант. етот код нужно ставить выше вот етого.
location ~ \.php$ { include /etc/nginx/fastcgi_params; fastcgi_pass unix:/var/run/site.ru.sock; fastcgi_param SCRIPT_FILENAME $realpath_root$fastcgi_script_name; fastcgi_param DOCUMENT_ROOT $realpath_root; }
а фастпанель инклуд делает в самом низу. блокирует только если перейти допустим по /robots.txt а если сайт на php то не блокирует
fastpanel