Как закрыть директории от индексации?

Soley
На сайте с 22.08.2007
Offline
123
1119

У некого сайта 5 зеркал-партнеров.

Необходимо закрыть от индексирования несколько директорий данного сайта, но так, чтобы на зеркалах эти директории оставались открытыми.

Вариант robots.txt:

User-agent: Yandex

Disallow: /dir1/

Disallow: /dir2/

Disallow: /dir3/


не подходит
:idea:, так как при этом в зеркалах они тоже закрыты.

Какие еще есть варианты?

Soley
На сайте с 22.08.2007
Offline
123
#1

Есть ли смысл сделать отдельный robots.txt для каждого поддомена и прописать

User-agent: *

Host: dom1.site.ru

Поможет ли это избежать склейки с основным доменом?

kimberlit
На сайте с 13.03.2007
Offline
370
#2
Soley:
Есть ли смысл сделать отдельный robots.txt для каждого поддомена и прописать

User-agent: *
Host: dom1.site.ru

Поможет ли это избежать склейки с основным доменом?

Непонятно. Вам нужно склеить или избежать склейки?

И про первый вопрос вообще непонятно ничего. К чему такие заморочки?

Soley
На сайте с 22.08.2007
Offline
123
#3

Дело в том, что есть некие директории, которые до обновления сайта были поддоменами. Эти поддомены продвигались по среднечастотным запросом и входили в топ. После обновления поддомены выпали, возможно, были склеены с основным доменом. Хотелось бы как-то восстановить выдачу поддоменов 😕

Soley
На сайте с 22.08.2007
Offline
123
#4

Неужели никто не знает? Дайте хоть какой-то совет!!!!

Revan
На сайте с 09.09.2005
Offline
321
#5

Показывать на основном сайте и на зеркалах разный robots.txt

Реализуется с помощью htaccess.

Все.

С уважением, Прокофьев Александр, founder KudaGo.com (http://kudago.com). Отдаем информацию обо всех мероприятиях в РФ + Киев по API (/ru/forum/912869) всем желающим.
john2007
На сайте с 26.03.2007
Offline
173
#6

Как альтернативный вариант - <META name="ROBOTS" content="noindex">

Совершая ошибки, мы не только учимся их не повторять, но и учимся прощать такие же ошибки другим... (с)
albion
На сайте с 07.10.2005
Offline
247
#7
Soley:
не подходит

Судя по вашей ситуации - подходит. Яндекс для поддомена не увидит robots.txt, т.к. его нет в папках.

К примеру, если у вас папки по ftp выглядят так:

/site.ru/ - относится к домену site.ru. И в нем лежит robots.txt

/site.ru/dir1/ - относится к домену dir1.site.ru (и т.д.).

При обращении Яндекса к dir1.site.ru он не увидит robots.txt, который лежит в /site.ru/

Soley:
User-agent: *
Host: dom1.site.ru

Неправильная запись. Обязательно должен быть Disallow

Soley
На сайте с 22.08.2007
Offline
123
#8
albion:
Судя по вашей ситуации - подходит. Яндекс для поддомена не увидит robots.txt, т.к. его нет в папках.
К примеру, если у вас папки по ftp выглядят так:
/site.ru/ - относится к домену site.ru. И в нем лежит robots.txt
/site.ru/dir1/ - относится к домену dir1.site.ru (и т.д.).
При обращении Яндекса к dir1.site.ru он не увидит robots.txt, который лежит в /site.ru/

У сайта есть зеркала для которых будет тот же robots.txt что и для основного сайта...

На главном сайте директории должны быть закрыты, а на зеркалах- НЕТ.

... но решение найдено! Всем огромное спасибо!:)))

Soley
На сайте с 22.08.2007
Offline
123
#9

В продолжение этой темы возникли дополнительные вопросы...

Более подробно: на конкретном сайте есть деление информации по городам-директориям. Так же для всех данных городов существуют поддомены которые дублируют информацию соответствующих директорий.

Вопрос в том надо ли на каждом поддомене закрывать от индексации все директории-города или только ту что дублирует данный поддомен?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий