- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго всем дня.
Подскажите кто сталкивался, пожалуйста. Недавно переносили обновления сайта на продакшн и программисты перенесли файл robots.txt закрывающий индексацию сайта. Отсюда сразу ошибки в гугл вебмастерс, в выдаче гугла не отображается дескрипшн и т.д. Яндекс вроде не успел хапнуть (такой файл висел одну ночь).
После разбора полетов программисты предложили генерировать файл robots.txt автоматически. Файлом robots.php с расширением .txt Файл проверяет где находится пользователь на темплэйтед или на продакшн и отдает нужные значения.
Лично я, как seo специалист, против, но если кто-то сталкивался с таким моментом вопрос: Может ли такое решение влиять на индексацию и как? Стоит ли заморачиваться.
Заранее всем спасибо за ответы.
С уважением.
программисты предложили генерировать файл robots.txt автоматически
Зачем? 10 недоумений.
После разбора полетов программисты предложили генерировать файл robots.txt автоматически.
Ленивые у вас программисты.
Зачем? 10 недоумений.
Мотивируют это тем, что больше такое не повторится, если файл будет генерироваться.
Мотивируют это тем, что больше такое не повторится
Мотивируйте их больше не ошибаться так.
Мотивируйте их больше не ошибаться так.
С этим как раз-таки понятно...
Больше интересует пробовал кто-нибудь так делать или нет? И если да, то какие были результаты и выводы? Просто нет времени на тесты.
P.S. Большая просьба не отклоняться от темы.
Я так генерирую sitemap.xml но это немного другое. С роботсом не стал бы так экспериментировать, тем более переезды не каждый день случаются.
Sitemap и у нас генерируется. Дело в том, что проект обновляется постоянно - работает целая команда разработчиков и это уже второй случай. Прошлый раз успел хапнуть и яндекс и гугл.
Поэтому и встал вопрос об автоматизации.
PS Свалилась вся низкочастотка по гуглу из топ 10 - около 300 запросов.