Google Sitemaps+Robots.txt=????????

JD
На сайте с 13.12.2005
Offline
34
766

добавил карту в Google Sitemaps

прошол проверку..

и офигел

пол сайта закрыто для индексации поисковыми ботами

Google Sitemaps пишет что все пучком мол данные страницы закрыты Robots.txt

а вот какой он у меня без изменений 3 месяца

# Инструкции для всех роботов

User-agent: *

Disallow:

User-agent: Yandex

Disallow:

Host: www.daruy-kvity.com.ua

User-agent: Googlebot

Disallow:

в чем глюк??? где ошибка???

по ходу сайт исчез из Яши Рамы и Гугля

суппорт Яши сказал , что бана нет, просто ваш сайт недоступен для индексации

отправте повторный запрос

JD
На сайте с 13.12.2005
Offline
34
#1

вобщем сам нерасчехлиш никто не расчехлит за тебя 9-))))

http://www.rambler.ru/doc/robots.shtml


....
Внимание: точно так же и инструкции "Disallow: *", "Disallow: *.doc", "Disallow: /dir/*.doc" не запрещают ничего, поскольку файлов, имя которых начинается со звездочки или содержит ее, не существует! Использование регулярных выражений в строках Disallow, равно как и в файле robots.txt вообще, не предусмотрено.



после ковыряния в логах и пол нервно скуреной пачки сигарет ,была найдена причина

исходный вариант файла был таким:

# Инструкции для всех роботов

User-agent: *

Disallow: * !!!!!!!!!!!!

яша рама и гугла почти 2 недели тупо игнорировали ВСЕ ЛИНКИ на странице 9-(((

звездочка в Disallow закрывает все!!!!

AN
На сайте с 05.06.2004
Offline
243
#2

Где-то в хелпах Гугля видел, что он в роботсе понимает, скажем так, какое-то подмножество рег.выражений. В т.ч., насколько помню, и такого типа:

Disallow: /dir*

Размещу ваши баннеры на посещаемых сайтах. Места еще есть! Возможен безнал. (/ru/forum/324945) Нужны копирайтеры/рерайтеры - медики. Пишите в личку. (/ru/forum/676932)
MT
На сайте с 01.09.2002
Offline
108
#3

файл /robots.txt согласно Standard for Robot Exclusion служит для указания различным роботам страниц и разделов сайта, которые не надо индексировать.

Если, как в вашем случае, нет необходимости что-то закрывать от роботов - лучше всего вообще не создавать файл /robots.txt, тем более что об этом прямо говорится в стандарте:"if it was not present, i.e. all robots will consider themselves welcome."

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий