- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Дано: debian + fastpanel
При создании на сайте автоподдоменов *.site.ru файл robots.txt запрещает индексацию, то есть при обращении к sub.site.ru/robots.txt
Его содержимое:
User-agent: * Disallow: /
Но самого файла нет в папке сайта, папка пустая! Даже если мы в корне сайта размещаем robots.txt с нужными директивами, при обращении к поддомену выдается файл запрещающий все. Если вручную создаем папку /sub/ и там размещаем свой robots.txt, то все равно отдается все запрещающий. Не могу понять где он его берет.
чето мне кажется, что фастпанель тут ни причем:)
а дело в CMS.
Вот созданный домен, вообще ничего нет, тем более CMS:
http://aaa.bom.su/robots.txt
http://aaa.bom.su/robots1.txt
Два одинаковых файла лежат к корне сайта. Почему robots.txt берется не из корня и откуда он вообще берется?
Почему robots.txt берется не из корня и откуда он вообще берется?
google.com / nginx "robots.txt"
How to set robots.txt globally in nginx for all virtual hosts
serverfault.com/questions/549332/how-to-set-robots-txt-globally-in-nginx-for-all-virtual-hosts
You can set the contents of the robots.txt file directly in the nginx config:
Возможно nginx сочиняет.
А зачем Вам так многоglue DNS серверов?
Дано: debian + fastpanel
При создании на сайте автоподдоменов *.site.ru файл robots.txt запрещает индексацию, то есть при обращении к sub.site.ru/robots.txt
Его содержимое:
User-agent: * Disallow: /
Но самого файла нет в папке сайта, папка пустая! Даже если мы в корне сайта размещаем robots.txt с нужными директивами, при обращении к поддомену выдается файл запрещающий все. Если вручную создаем папку /sub/ и там размещаем свой robots.txt, то все равно отдается все запрещающий. Не могу понять где он его берет.
Фастпанель НЕ трогает роботсы.
google.com / nginx "robots.txt"
How to set robots.txt globally in nginx for all virtual hosts
serverfault.com/questions/549332/how-to-set-robots-txt-globally-in-nginx-for-all-virtual-hosts
You can set the contents of the robots.txt file directly in the nginx config:
Возможно nginx сочиняет.
Как создать автоматом robots.txt через nginx понял, а вот как отключить? В настройках nginx и apache нигде нет упоминания про robots.txt.
Как создать автоматом robots.txt через nginx понял, а вот как отключить? В настройках nginx и apache нигде нет упоминания про robots.txt.
потому что может быть по умолчанию.
А если в файле нужен другой текст, то настраивать явно для каждогоиспользуемого имени домена, как сделано для www dot bom dot su
У меня нет времени уточнять,сами читайте и пробуйте.
google.com / site:nginx.org "robots.txt" default
Там много похожих задач.
И по поводу большогоколичества DNS серверов.
Похоже, что Вы хотите наколхозить что-то типа (ucoz.ru), при этом для решения этой задачи у Вас нет ни знаний, ни умений, ни способностей. Вам было бы лучше не тратить зря время и другие ресурсы, а сотрудничать со мной для взаимной полезности.
Поиски бесплатных советов на форумемогут только помочь Вам заблуждаться.
А в чатжпт пробывали? )
Такое поведение может быть связано с настройками Nginx, которые определяют поведение по умолчанию для поддоменов. Скорее всего, на сервере настроен конфигурационный файл, который перехватывает запросы к robots.txt и возвращает стандартный (запрещающий) файл.
Шаги для диагностики и исправления проблемы
1. Проверьте конфигурацию Nginx
Откройте основной конфигурационный файл Nginx, который может находиться в одном из следующих мест:
Ищите директиву, которая управляет обработкой запроса к robots.txt . Например:
Например:
location = /robots.txt { default_type text/plain; return 200 "User-agent: *\nDisallow: /\n"; }
Если такой блок найден, он заменяет любые robots.txt из корневой папки сайта. Удалите или измените этот блок, если он существует.
Если у вас используется wildcard для поддоменов (например, server_name *.site.ru; ), посмотрите настройки, связанные с поддоменами. Для поддоменов может быть прописана обработка robots.txt в конфигурации:
В этом случае отредактируйте этот блок или удалите его.
3. Исключите глобальные настройки Nginx
Иногда robots.txt может возвращаться благодаря глобальным настройкам Nginx (например, через include-файлы). Проверьте их:
Это поможет найти любые упоминания robots.txt в конфигурации.
4. Проверьте FastPanel
FastPanel иногда создает свои шаблоны конфигураций. Убедитесь, что для конкретного домена или поддоменов не используются специальные правила. Для этого проверьте файлы конфигурации, которые FastPanel мог создать, например, в /etc/nginx/fastpanel/ .
5. Измените правила в Nginx
Чтобы исправить проблему, вы можете добавить такие настройки:
Для основного домена:
Для поддоменов:
6. Перезапустите Nginx
После внесения изменений перезапустите Nginx:
7. Проверка
Убедитесь, что изменения применились:
Надо по факту смотреть сервер и кто отвечает за этот файл. Панели сама ничего не генерирует, ей это сдалось.
Скорее всего не там и не то смотрите.
Неправильно настроили субдомены в панели
upd. хотя, тогда /robots1.txt тоже зеркалился бы. Ошибся
зайдите в ручная настройка. может там правило какое то прописано