Robots.txt для поддоменов

CD
На сайте с 22.07.2016
Offline
19
2142

Есть какая-то специфика?

Создал 5 поддоменов:

1.site.ru

2.site.ru

3.site.ru

4.site.ru

5.site.ru

Для каждого нужно создавать роботс? Что указывать в хосте?

И еще вопрос, сайтмапы делать отдельно для всех или общий с основным сайтом?

Shessmaster
На сайте с 15.10.2007
Offline
240
#1
CharaDaa:
Robots.txt для поддоменов
Есть какая-то специфика?

Главное, понимать, что сайт на поддомене – является отдельным ресурсом.

CD
На сайте с 22.07.2016
Offline
19
#2
Shessmaster:
Главное, понимать, что сайт на поддомене – является отдельным ресурсом.

Значит для каждого поддомена свой роботс?

Shessmaster
На сайте с 15.10.2007
Offline
240
#3
CharaDaa:
Значит для каждого поддомена свой роботс?

Всё верно, и стесняйтесь смотреть/анализировать чужие проекты(spb.hh.ru/robots.txt, spb.hh.ru/sitemap/main.xml).

ildseo
На сайте с 09.03.2017
Offline
14
#4

Для поддоменов нужен отдельный robots.txt с запретом на индексацию.

Для упрощения поддержки таких доменов, они делаются синонимами основного домена, а значит имеют общий контент, общую корневую директорию, а значит и общие файлы, в том числе и robots.txt.

Например, для сайтов site.ru и sub.site.ru корневая директория /home/www/site.ru (где и лежит их общий robots.txt).

CD
На сайте с 22.07.2016
Offline
19
#5
ildseo:
Для поддоменов нужен отдельный robots.txt с запретом на индексацию.

Для упрощения поддержки таких доменов, они делаются синонимами основного домена, а значит имеют общий контент, общую корневую директорию, а значит и общие файлы, в том числе и robots.txt.

Например, для сайтов site.ru и sub.site.ru корневая директория /home/www/site.ru (где и лежит их общий robots.txt).

На эту фразу и я в тырнете натыкался.

Закрывать от индексации зачем? Чтобы не было дублей с основным доменом?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий