Как правильно сделать файл robots.txt под яндекс

12
Елистратов
На сайте с 21.04.2007
Offline
229
#11
Kost:
А можно не редирект, а robots.txt выдавать разный в зависимости от HTTP_HOST. Делается обработкой .txt файлов SSI или PHP.

Kost, собсно не пойму Вас..Как можно роботсом прописать главное зеркало например для гугла?

Дирректива хост только у яндекса же...Или же я просто не врубаюсь про что Вы говорите?

C уважением, Евгений. Покупаю аккаунты AdSense ()
K
На сайте с 31.01.2001
Offline
737
#12
Елистратов:
Как можно роботсом прописать главное зеркало например для гугла?

Сорри, прямо сейчас искать точный пример невпротык, он висел несколько лет в хелпе Яндекса. Я же написал,

1) включить SSI для файлов .txt

2) если HTTP_HOST != www.site.com then

User-Agent: *

Disallow: /

else

User-Agent: *

Disallow:

endif

www.site.com - это будет единственное зеркало, независимо от количества остальных. И пофиг, что за поисковик. И не нужен mod_rewrite.

Сорри за схематичность.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
Елистратов
На сайте с 21.04.2007
Offline
229
#13
Kost:
Сорри, прямо сейчас искать точный пример невпротык, он висел несколько лет в хелпе Яндекса. Я же написал,
1) включить SSI для файлов .txt
2) если HTTP_HOST != www.site.com then
User-Agent: *
Disallow: /
else
User-Agent: *
Disallow:
endif

И пофиг, что за поисковик. И не нужен mod_rewrite.
Сорри за схематичность.

ааааа...Усе, понял..Спасибо за разъяснение. Да действительно и так можно;)

Елистратов
На сайте с 21.04.2007
Offline
229
#14

Только что нашел:)

Если у вас сервер Apache, то можно вместо использования директивы Host задать robots.txt с использованием директив SSI:
User-Agent: *
Disallow: /

http://help.yandex.ru/webmaster/?id=995297#995321

как я понял Яндекс про это же пишет🚬

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий