Бред с robots.txt

J1
На сайте с 06.09.2012
Offline
122
1961

Привествую, коллеги.

Ситуация такая - новый сайт на английском, его роботс вот http://joxi.ru/brRjGqGCoJ7kr1.

После сжирания сайтмапа гугл пишет -

Файл Sitemap содержит URL, доступ к которым заблокирован в файле robots.txt.

Может я чего-то не вижу? Где там блокируются урлы? У кого-то был такой прикол?

NO FATE
Pavel Medvedev
На сайте с 27.01.2006
Offline
166
#1

Возможно роботс недавно менялся и гугл еще не проиндексировал его?

Консультирую по SEO. Опыт c 2005: окна топ1,Ашан,Фишки,Спортс и др. Пишите в FB.
Константин Валентинович
На сайте с 23.11.2013
Offline
64
#2
jj1981ua:
Привествую, коллеги.

Ситуация такая - новый сайт на английском, его роботс вот http://joxi.ru/brRjGqGCoJ7kr1.
После сжирания сайтмапа гугл пишет -
Файл Sitemap содержит URL, доступ к которым заблокирован в файле robots.txt.

Может я чего-то не вижу? Где там блокируются урлы? У кого-то был такой прикол?

Что в Search Console видно? На какой CMS сайт - нет ли другого файла robots.txt?

Если оставить одну верхнюю и две нижних строки, какой будет результат?

J1
На сайте с 06.09.2012
Offline
122
#3
Константин Валентинович:
Что в Search Console видно? На какой CMS сайт - нет ли другого файла robots.txt?
Если оставить одну верхнюю и две нижних строки, какой будет результат?

Роботс недавно изменил. Он как раз и был - верхняя + 2 нижние. Как в вебмастере увидел - решил не придумывать велосипед и скопировал с роботса анологичного проекта. Ошибка еще держится(

W
На сайте с 13.12.2015
Offline
19
#4
jj1981ua:
Роботс недавно изменил. Он как раз и был - верхняя + 2 нижние. Как в вебмастере увидел - решил не придумывать велосипед и скопировал с роботса анологичного проекта. Ошибка еще держится(

Уважаемый. У гугла (прямо таки в Searh Console) есть прекрасный сервис с проверкой доступности страниц по robots.txt

Вбиваете ссылку и оно показывает правило, которое срабатывает и запрещает просматривать. После этого правите сам файл и отправляет гуглу новую версию с последующим обновлением странички консоли.

Веду собственный курс по SEO (на украинском) https://seomadeplace.com/uk/kursi-po-marketingu/seo-kurs/
Phobin
На сайте с 18.09.2014
Offline
89
#5

Тоже самое было у меня. При проверке по страницам всё доступно, но в окне проверки сайтмапа указывает на ошибки. Хз с чем связано.

Самый точный съем позиций (https://topvisor.ru/?inv=52221)
E
На сайте с 20.09.2015
Offline
25
#6

Недавно сталкивался с похожей проблемой, помогла перегенерация htaccess.

SF
На сайте с 27.09.2016
Offline
3
#7

А то что сайт закрыт от индексации, ничего?

Возможно именно по этому и выдает такую ошибку

angel57
На сайте с 01.04.2014
Offline
154
#8
seo fish:
А то что сайт закрыт от индексации, ничего?
Возможно именно по этому и выдает такую ошибку

это для Яндекса закрыт, а для Гугла открыт ☝

---------- Добавлено 28.09.2016 в 20:26 ----------

Константин Валентинович:
нет ли другого файла robots.txt?

это как? 🍿

K0
На сайте с 01.09.2016
Offline
72
#9
angel57:
это как?

Например лежит одно, а по запросу редиректится или генерируется скриптом совсем другое.

wolf
На сайте с 13.03.2001
Offline
1183
#10
angel57:
это для Яндекса закрыт, а для Гугла открыт

http://www.robotstxt.org/orig.html

The file consists of one or more records separated by one or more blank lines (terminated by CR,CR/NL, or NL). Each record contains lines of the form "<field>:<optionalspace><value><optionalspace>". The field name is case insensitive.

Отделите записи для разных User-agent друг от друга пустыми строками

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий