- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK станет единственным владельцем образовательного сервиса «Сферум»
Закрытие сделки запланировано до конца апреля
Оксана Мамчуева

Продвижение в Яндексе и Google в нише ecom «Электроника» – SEO-исследование от Sape
Спрос, позиции в обеих ПС, ссылочный профиль
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
папки robots.txt
Это не папка - это файл.
Как вы его отдадите запрашиваемому - дело ваше. Если в него не вносятся сколько-нибудь часто изменения - то держать физическим файлом, если вносятся - автоматизировать и генерить.
Мне кажется, вся суть именно в этом, иначе не очень понятно зачем бы я его генерил автоматом.
Это не папка - это файл.
Как вы его отдадите запрашиваемому - дело ваше. Если в него не вносятся сколько-нибудь часто изменения - то держать физическим файлом, если вносятся - автоматизировать и генерить.
Мне кажется, вся суть именно в этом, иначе не очень понятно зачем бы я его генерил автоматом.
Точно, оговорилась, спасибо за поправку.
При имеющемся виде сайта мне пока что ближе физический вариант файла. Суть поняла, спасибо.
Если обойтись без создания папки robots.txt в корне и довольствоваться созданным сео плагином динамическим robots.txt. Какие минусы и плюсы? Из минусов пока вижу то что, плагин всё таки сторонняя вещь, в корне физический надёжнее держать.
В любом случае файл robots.txt находится в корневом разделе физически (должен находиться).
SEO плагины как правило позволяют его редактировать из админки сайта, иногда применяя которые инструкции для запрета переобхода файлов/папок, указания использования xml карты и директивы host, которая не поддерживается Яндексом, насколько я помню, с 2018 года.
В любом случае файл robots.txt находится в корневом разделе физически (должен находиться).
Не должен. Некоторые CMS выдают предупреждение, что его там быть не должно в случае генерации скриптом.
В любом случае файл robots.txt находится в корневом разделе физически (должен находиться).
Не должен.
Если он генерится автоматом, то ничего он не должен.
Это смотря с какой точки зрения. С точки зрения вопросов оптимизации (смотрим на актуальный раздел) - должен быть.
С точки зрения практики использования CMS, конечно можно накрутить и использовать какие угодно схемы его поддержки.
Некоторые CMS выдают предупреждение, что его там быть не должно в случае генерации скриптом.
Это предупреждение является каким-то непреодолимым препятствием?
Из нескольких плагинов, которые я видел (и которые по большому счёту совершенно не нужны опытному специалисту) - просто перезаписывали его содержимое. Что с плагином, что без плагина, что при желании - вообще без CMS файл robots.txt в своём физическом присутствии актуален, будь он хоть в паре со статичным файлом index.html
Это смотря с какой точки зрения. С точки зрения вопросов оптимизации (смотрим на актуальный раздел) - должен быть.
Чушь полная. При чём тут вообще оптимизация? Ответ: ни при чём.
Это предупреждение является каким-то непреодолимым препятствием?
Как бы да. Не генерируется код robots.txt.
Из минусов пока вижу то что, плагин всё таки сторонняя вещь, в корне физический надёжнее держать.
Совершенно верно. Если вы по каким-то причинам не сможете зайти в панель управления CMS и запустить плагин, которые эмулирует поддержку robots.txt, то вы и не сможете поменять данные в случае необходимости.
Всегда проще зайти напрямую на хостинг (или через ftp) и вручную обычным текстовым редактором его отредактировать.
К слову, это даже быстрее.
Странный спор. Все зависит от не раздела на форуме, а от задач.
Тот, кто запрашивает файл - получит его в любом случае и знать не будет лежит он там или был свежесгенерирован. Файл был нужен - файл по адресу domain.com/robots.txt был получен. Все. Задача выполнена.
А реализовано ведь все может быть разными методами - он может там и правда физически лежать и обновляться раз в N дней, а может его там не быть вообще, он будет генериться именно в момент обращения и отдаваться.
Это уже вопросы вообще из другой области, которые решаются и реализовываются под конкретный сайт.
Чушь полная. При чём тут вообще оптимизация? Ответ: ни при чём.
Смотрим внимательно на то как называется раздел в котором мы беседуем (указано слева) и не порем горячку ;)
Как бы да. Не генерируется код robots.txt.
Снести тогда этот плагин нафик, который не может нормально обеспечить работу.