и как туда попасть. у меня пароля нет. ето хз что за пользователь. ето наверно группа пользователей .его сама исп установила
нет. просто я делаю скрипт на пк. (windows)
отдаю его клиенту. сайт на линуксе. поетому хочу чтоб было одинаково и не менять ничего
ну использовать что-то типа $_SERVER['DOCUMENT_ROOT'] или dirname(__FILE__) или pathinfo. смотря как и что где
а нет. нужно так чтоб работало
shell_exec('getweb 2>&1')
ето как.?
нет. от www-data
владелец
/var/www/www-root/data/curl
тоже www-data
ети поисковики одно пишут а другое делают. robots.txt правила они игнорируют. яндекс мне чуть ли ни каждый день шлет письма что на сайте не найден robots.txt . хотя он там есть
лучше запрещать урл на уровне сервера или php
спасибо. я вот такую штуку нашел
aggregate -q << EOF34.100.182.96/2834.101.50.144/28....EOF
причем тут панель. я вообще в целом. на уровне самого nginx спрашивал
та нет. на месте. просто если закинуть в папку /etc/nginx/fastpanel2-includes/ файл bad_bots.conf
if ($http_user_agent ~* (Ahrefs|majestic|SemrushBot|Go-http-client|mj12bot) ) { return 403;}
то не работает если сайт в режиме php-fpm
Всё просто:
1. создаете файл "черный список" .conf и пишите туда, что хотите запретить.
2. к каждому сайту в sites-available вставляете в сервер
server {
include /etc/nginx/"черный список".conf;
return 301 https://бла-бла
}
про каждый сайт я и сам знаю. речь шла все в одном месте