Нужна помощь по robots.txt

W
На сайте с 09.01.2010
Offline
24
504

Все доброго времени суток. Есть сайт http://wow-engaged.ru/.

Есть роботс http://wow-engaged.ru/robots.txt

Яндекс кушает все запрещенные страницы, а во время проверки в явебмастер на файл роботс пишет "Найдено несколько директив Host".

Скажите пожалуйста, как поправить ситуацию и где ошибка в роботс? Если у когото есть лучший вариант файла роботс под дле, прошу поделиться.

[Удален]
#1

Для Googlebot хост прописывать не надо.

W
На сайте с 09.01.2010
Offline
24
#2

Убрал хост для гугла, теперь пишет:

Используемые секции Строка

1-26 User-agent: Yandex

Disallow: /autobackup.php

...

Host: wow-engaged.ru

52-52 Sitemap: http://wow-engaged.ru/sitemap.xml

[Удален]
#3
wwelvinww:
Убрал хост для гугла, теперь пишет:
Используемые секции Строка

1-26 User-agent: Yandex
Disallow: /autobackup.php
...
Host: wow-engaged.ru


52-52 Sitemap: http://wow-engaged.ru/sitemap.xml

Sitemap тоже только для яндекса указывается. Я бы на Вашем месте заменил User-agent: Googlebot на User-agent: *, кроме яши и гугла есть и другие пс.

W
На сайте с 09.01.2010
Offline
24
#4

Последовал вашему совету, теперь выдает:

1-26 User-agent: Yandex

Disallow: /autobackup.php

...

Host: wow-engaged.ru

[Удален]
#5

Ну значит все нормально, это не ошибка.

W
На сайте с 09.01.2010
Offline
24
#6

Спасибо за помощь.

[Удален]
#7

kimberlit, Вы бы лучше поправили меня, если я что-то не так, по Вашему мнению указал, и я бы что-то узнал и ТСу помогли. Тем более я все писал так как мне здесь советовали. Но вижу, Ваше величество обсуждает только очень важные темы в курилке, а по остальным разделам форума Вы ходите только чтобы репы минусовать.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий