Прошу совета: как отключить зеркало?

1 234
AVV
На сайте с 31.07.2006
Offline
84
AVV
#21

Небольшое дополнение.

В принципе, если есть желание, можно оставить на сайте site1.ru файл robots.txt а строкой

RewriteCond %{REQUEST_URI} !robots\.txt$

запретить переадресацию на www.site1.ru только для одного этого файла.

Окончательный вариант .htaccess лежащего в корне site1.ru вместе с файлом robots.txt тогда будет такой:

RewriteEngine on
RewriteBase /
RewriteCond %{HTTP_HOST} ^site1\.ru$
RewriteCond %{REQUEST_URI} !robots\.txt$
RewriteRule (.*) http://www.site1.ru/$1 [R=301,L]
[Удален]
#22
AVV:
RewriteBase /

А это зачем нужно?

AVV
На сайте с 31.07.2006
Offline
84
AVV
#23
jorevo:
А это зачем нужно?

Если работает без RewriteBase, то значит не нужно.

Я уже сталкивался, что на разных апачах mod_rewrite работает по-разному.

M5
На сайте с 28.12.2005
Offline
135
#24

Друзья!

Вопрос по этой же теме. У меня есть основной сайт. Он расположен в корневой папке на сервере, для паркованных доменов соответственно тоже есть папки. Имя паркованных доменов совпадает с названием основоного домена за исключением самих зон. В папках паркованных доменов информации никакой нет...

Вопрос: Яндекс выбрал один из паркованных доменов основным, что разумеется плохо и отображает страницы основного сайта. Разумеется пишет, что основной сайт - это уже зеркало.

Что я сделал и правильно ли:

1. Прописал в папках паркованных доменов robots.txt со следующими параметрами:

User-Agent: Yandex

Disallow:

Host: www.основной_сайт.ру

User-Agent: *

Disallow:

Ссылки на основном домене прописал абсолютными. В корневую папку роботс не добавлен.

Правильно ли?

K
На сайте с 31.01.2001
Offline
737
#25

Чтобы не ждать зеркальщика, можно выдавать robots.txt без всяких хитровыдуманных директив Host: , но разный для разных зеркал. Рецепт был в Яндексе написан, я пробовал - работает конечно. Только надо файлы .txt обрабатывать с помошью SSI.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
FlyAway
На сайте с 01.06.2005
Offline
439
#26

Michael-5, ничего не понял про паркованные домены и папки. Обычно папки паркованных доменов не видны, т.е. есть папки www или public_html, это и есть корень, куда нужно класть robots.txt. Потому что, все что выше не для поисковых машин.

Сердюченко Андрей (http://www.serdyuchenko.ru/) Масонская ложа — SЕ-Team.ru (http://goo.gl/YIjV6h) :)
M5
На сайте с 28.12.2005
Offline
135
#27

FlyAway, Так и есть. Основной домен находится в паблик хтмл. Для паркованного тоже создалась папка уже в паблик.

В принципе я склонялся к Вашему варианту, но если также есть и другие сайты(папки сайтов) в паблик? С ними ничего не станется после роботс. Например не попадут ли они под disallow?

Редько Владимир
На сайте с 02.11.2004
Offline
75
#28

Блин, зеркальщик с цепи сорвался. Уже второй сайт склеил не так как нужно!

Скажите, братцы, а как ускорить процесс переклейки? Все что нужно перепрописал. Теперь опять зеркальщика ждать? Сколько? Год? Два?

На моем сайте его два года не было.

seasick
На сайте с 22.04.2005
Offline
113
#29
Редько Владимир:
Скажите, братцы, а как ускорить процесс переклейки?

1.

Проставить нужный host в robots.txt обоих сайтов-зеркал.

2.

Проставить побольше ссылок.

3.

Ждать и не нервничать. Зеркальщик - очень ленивый робот.

FlyAway
На сайте с 01.06.2005
Offline
439
#30

Michael-5, я просто особо не понимаю как у Вас это все работает. Если на хостинге, в головной папке валяются папки для других доменов, для основного домена делаете свой роботс, а в папки других доменов кладете свои роботсы. Вообщем вы покажите лучше пример, так будет проще дать Вам дать дельный совет. Можно отскриншотить и прислать ;)

1 234

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий