- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток. Подскажите как сделать запись логов в файл, который лежит в корне сайта?
Написал такой код и подключил его ко всем страницам сайта:
На выходе получаю файл вида log-2019-08-20.txt, но... Он создается в каждой директории нового уровня. Т.е., те посещения, которые идут по страницам в корне сайта пишутся в лог-файл, который в корне. Для страниц второго уровня создается отдельный(-ные) лог-файлы в каждой папке второго уровня. Как сделать, чтобы все записывалось только в один файл который лежит в корне?
Пытался несколькими способами:
$fh = fopen('/log-'. date('Y-m-d') .'.txt', 'a');$fh = fopen('сайт.ру/log-'. date('Y-m-d') .'.txt', 'a');$fh = fopen('http://сайт.ру/log-'. date('Y-m-d') .'.txt', 'a');При таких вариантах лог вообще не пишется...
Есть ли еще вариант как можно это исправить?
$log_filename = $_SERVER['DOCUMENT_ROOT'].'/'.'log-'. date('Y-m-d') .'.txt';
$fh = fopen($log_filename, 'a');
p.s. Подскажите адрес сайта, логи посмотрю.. ))
p.p.s безопаснее как минимум выше корневого каталога писать.. что-то вроде
Попробуй путь к группе от начала (/var/www/...)
$log_filename = $_SERVER['DOCUMENT_ROOT'].'/'.'log-'. date('Y-m-d') .'.txt';
$fh = fopen($log_filename, 'a');
Огромное спасибо! Похоже, все работает, понаблюдаю сегодня еще.
p.s. Подскажите адрес сайта, логи посмотрю.. ))
Был бы клиентский... а так свой))
p.p.s безопаснее как минимум выше корневого каталога писать.. что-то вроде
Если ломанут, то, думаю, не спасет. Сейчас закрыто индексирование в robots.txt, хочу еще ограничить доступ к файлу по IP в .htaccess, разрешив заходить только со своего рабочего и домашнего. Такой вариант понадежней будет.
Сейчас закрыто индексирование в robots.txt
Человек, зайдя в robots.txt, узнает, что у вас там логи лежат )))
разрешив заходить только со своего рабочего и домашнего. Такой вариант понадежней будет.
Лучше уж через .htaccess.. сделать deny..
Или, как вариант - в каталог складывать и Basic http auth прикрутить..
Человек, зайдя в robots.txt, узнает, что у вас там логи лежат )))
Тут тоже не все так однозначно. Если, допустим, файл с логами называется файллогипосещения-yyyy-mm-dd.тхт, то в роботсе указано Disallow: /файллог. Соответственно, все, что содержит "файллог" закрыто от индексации, и явно не выдает имя файла.
Лучше уж через .htaccess.. сделать deny..
Да, так тоже хочу сделать, разрешив только 2 ip адреса.
Ну и бонусом, логи буду сливать на флешку или облако раз в 2-3 дня, зачем они мне на сервере?)
Они мне больше нужны изредка, для поиска подозрительной активности на сайте.
Если, допустим, файл с логами называется файллогипосещения-yyyy-mm-dd.тхт, то в роботсе указано Disallow: /файллог. Соответственно, все, что содержит "файллог" закрыто от индексации, и явно не выдает имя файла.
Надежда на эффект неуловимого Джо - одна из самых больших ошибок, за которую приходиться дорого платить.
Послушай что тебе люди говорят - вынеси за пределы документрут и убери упоминания о нём в роботсе (это вообще... надо было додуматься ж до такого).
В крайнем случае - в отдельный каталог с рандомным названием, защищённый не только по IP, но и хотя бы баз. авторизацией. И никаких упоминаний в роботсе!