Яндекс накосячил с соблюдением стандарта файла robots.txt

1 2345 6
spark
На сайте с 24.01.2001
Offline
130
#21

-=Илья=-, что это меняет?

User-agent должен быть никак не *. Почему этот вариант вообще попал в хелп, мне непонятно.

Хотя запретить несуществующую директорию можно поробовать, спасибо

-=Илья=-
На сайте с 05.12.2003
Offline
222
#22

Я собственно о директории, которой нет писал. Если и запрещать ничего не хочется, и строку disallow написать нужно по всем правилам, то вполне удобно поставить такой запрет.

А что касается юзер агента, то тут всё просто: яндекс host обработает, остальные отнесутся к нему как к пустому месту. Получается самый компактный вариант.

Nikolai Popkov
На сайте с 07.06.2001
Offline
210
#23

Host просто нет в стандарте

партнерские программы (http://www.ebanners.ru/viewforum.php?f=7), словарь термины SEO (http://www.ebanners.ru/viewtopic.php?t=548) Форум маркетинг (http://www.reclama.su/) Reclama.Su, обмен ссылками (http://www.ebanners.ru/viewforum.php?f=13), Reklama.SU: контекстная реклама (http://www.reklama.su/) по цене Яндекса+продвижение за результат
S
На сайте с 27.06.2003
Offline
55
#24

http://cards.yandex.ru/robots.txt

UserAgent: *

Disallow: /sendcard.xhtml

Disallow: /previewcard.xhtml

Disallow: /*.swf

Disallow: /*.mid

Disallow: /cgi-bin/

uacommerce
На сайте с 23.04.2005
Offline
33
#25
wolf:
......
Похоже, разные программы в Яндексе интерпретируют такой некорректный robots.txt по-разному. Так, например, сервис Яндекса по проверке robots.txt http://www.yandex.ru/cgi-bin/test-robots считает, что файл корректный и запрещает к индексации все зеркала, кроме www.site.ru

Робот-зеркальщик, считает, видимо, по-другому (разные люди писали?) и главным назначил второстепенное зеркало www.othersite.ru, о чем и говорится при попытке добавить в индекс домен www.site.ru через форму http://webmaster.yandex.ru/

Индексатор, видимо, как и сервис Яндекса по проверке robots.txt, считает, что файл корректный и выкинул сайт www.othersite.ru из индекса, а добавить www.site.ru нельзя, т.к. он считается второстепенным зеркалом сайта www.othersite.ru

Вот такой бардачок получился. robots.txt на фиг снесли. Ждём.

ну вот ещё и одно подтверждение моих предположений. У меня начались проблемы с сайтом именно с момента введения директивы host в robots.txt

Сначала выпал сайт полностью с индекса, а потом выпал из каталога, хотя размещение было платным. И регистрировался bigli.ru? без www

Причём сайт есть в каталоге, но при нажатии на денежку показывает тиц=0. Саппорт ответил просто

-----------------------------------------

Все правильно, в Каталоге был зарегистрирован сайт bigli.ru Но в силу того, что Вы удалили директиву Хост из robots.txt Яндекс считает главным зеркалом сайт -- www.bigli.ru , поэтому он и появился в Каталоге как главное зеркало. Верните директву хост на место и после отзеркалирования Ваших сайтов, в Каталоге появится новое главное зеркало автоматически.

-------------------------------------------

Причём, на мою просьбу написать точную строчку для robots.txt с использованием host поддержка яндекса молчит, как рыба об лёд. :)

вот так вот круг и замкнулся

так, что хоть и высмеяли мои предположения в этом форуме, я оказался прав.

А вообще если честно Яндекс просто достал меня уже, похоже, что они просто уже не могут контролировать своё детище.

С Уважением

Uacommerce

Чтоб у Вас всегда, благодаря чему, не смотря ни на что.
А
На сайте с 14.11.2003
Offline
150
#26
uacommerce:
Причём, на мою просьбу написать точную строчку для robots.txt с использованием host поддержка яндекса молчит, как рыба об лёд. :)

Хм... во-первых, у вас всего два варианта написания. Во-вторых, правильный вариант "угадать" не сложно. Тогда не будет проблем ни с поиском, ни с каталогом.

uacommerce:
так, что хоть и высмеяли мои предположения в этом форуме, я оказался прав.

Какие предположения? То что с помощью роботса можно управлять зеркалами в YaCa - общеизвестный факт.

uacommerce
На сайте с 23.04.2005
Offline
33
#27
Анар:
Хм... во-первых, у вас всего два варианта написания. Во-вторых, правильный вариант "угадать" не сложно. Тогда не будет проблем ни с поиском, ни с каталогом.

Какие предположения? То что с помощью роботса можно управлять зеркалами в YaCa - общеизвестный факт.

хотелось чтобы поддержка яндекса взяла на себя ответственность если что то пойдёт у них не так, после того как я сделаю как они напишут..

Самому пробовать мне уже резко расхотелось.

Предположения у меня были о том, что именно использование host привело к удалению сайта из индекса поисковика..

С Уважением

Uacommerce

/A
На сайте с 06.06.2005
Offline
155
#28

как ни прискорбно из-за таких же проблем в роботс.txt вылетел из индекса при последнем апдейте. Еперный театр :(

wolf
На сайте с 13.03.2001
Offline
1183
#29
Если и запрещать ничего не хочется, и строку disallow написать нужно по всем правилам, то вполне удобно поставить такой запрет.

"Все правила" (http://www.robotstxt.org/wc/norobots.html) вполне допускают пустую стоку Disallow, которая ничего не запрещает:


Disallow
The value of this field specifies a partial URL that is not to be visited. This can be a full path, or a partial path; any URL that starts with this value will not be retrieved. For example, Disallow: /help disallows both /help.html and /help/index.html, whereas Disallow: /help/ would disallow /help/index.html but allow /help.html.
Any empty value, indicates that all URLs can be retrieved.

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )
spark
На сайте с 24.01.2001
Offline
130
#30

wolf, мы сейчас не про правила, а про их оригинальное трактование роботами известной тебе SE говорим. Это две большие разницы, как оказалось.

1 2345 6

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий