Почему для Google такой robots.txt с ошибками?

KW
На сайте с 04.12.2013
Offline
169
1525

Проверил robots.txt по WebmaterTools и оказывается что строки

User-agent: *

Crawl-delay :

google считает ошибочными. Почему? НА многих сайтах вижу используется.

А как правильно тогда указывать правила для всех роботов?

jpg 137247.jpg
alaev
На сайте с 18.11.2010
Offline
850
#1
User-agent: *


Crawl-delay : 0.5

Может так надо? Не пробовали? :)

А вообще зачем вам этот параметр? Чтоб был как у всех?

Создание и продвижение сайтов - https://alaev.net , аудиты сайтов, контекстная реклама
E
На сайте с 21.09.2009
Offline
283
#2
KraftWerk:
Crawl-delay :

google считает ошибочными. Почему?

насколько я знаю, он этот параметр игнорирует.

project33
На сайте с 30.04.2011
Offline
94
#3

а что там за точка перед User-agent ?

V
На сайте с 05.09.2014
Offline
11
#4

может там после disallow слэш не стоит

Mik Foxi
На сайте с 02.03.2011
Offline
1200
#5

Зачем вы показали закрашенный скрин? Гадалок тут нету. Вы самое важное скрыли. А вообще давайте ссылку на нам роботс сайта, тогда и получите ответ а не гадания на кофейной гуще.

Антибот, антиспам, веб фаервол, защита от накрутки поведенческих: https://antibot.cloud/ (Зеркало: https://антибот.рф/ ) Форум на замену серчу: https://foxi.biz/
XPraptor
На сайте с 15.10.2004
Offline
333
#6

Сдается перед user-agent пробел, гугл просто точкой его отметил, после этого все записи уже будут ошибками, которые должны исполнять инструкцию какую -либо .Crawl пишется в любом месте, поэтому не выдает ошибку, но ни к чем не относится, поэтому предупреждение (или из-за пробела между двоеточием).

KW
На сайте с 04.12.2013
Offline
169
#7
vimind:
может там после disallow слэш не стоит

стоит,

XPraptor:
Сдается перед user-agent пробел

нету пробела.

project33
На сайте с 30.04.2011
Offline
94
#8

наверняка это BOM вылез. открой в блокноте, пересохрани файл в ansi и перезалей

K
На сайте с 27.05.2014
Offline
104
#9

возможно проблема на стороне хостинга, они могут блокировать доступ к роботс, у меня было что не кушал роботс и выводил ошибку 500 я написал хостингу и они исправили

N3
На сайте с 28.04.2014
Offline
98
#10

Народ, вы совсем упоролись? Ну ладно понимаю дорвеи, ГСы и прочие творения не палите, но robots.txt прятать и просить помощи?!

Неискоренимо нежелание пользоваться поисковыми системами - даже находясь на форуме о поисковых системах © Cell Влазить напрямую в базу — это невозможно © Игорь Белов, mchost.ru Если SeoPult купил ссылку - значит она "рабочая" © Nat_SeoPult

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий