PageSpeed Insights не видит robots.txt

12
Sutener
На сайте с 24.04.2009
Offline
126
#11
garry69 #:
Сейчас проверил ваш роботс, иногда выдает до 8 секунд. Проверка гугла просто не ждет столько времени.
о, спасибо за направление. Теперь понятны отличия Консоли и Проверки.
Erste-Hilfe Kurs in München https://blr-akademie.de/ für Führerschein und Betriebe *.com *.bat *.bat *.яня *.bat *.яня *.com *.bat
G6
На сайте с 12.07.2007
Offline
166
#12
"Sutener #:
Значит ли это, что если пользователь заходит единожды и сайт грузится дольше(ведь кэширование происходит во время первого посещения), то эту долгую загрузку и будет учитывать гугл?"

Так можно заранее кеш "прогреть".  Если нет такого пункта в вашем плагине кеша, есть масса отдельных.
Vladimir SEO
На сайте с 19.10.2011
Offline
1754
#13
Sutener :

В общем то сабж.

PageSpeed Insights пишет:

"Файл robots.txt недействителен Не удалось скачать файл robots.txt.

Если файл robots.txt поврежден, поисковые роботы могут не распознать ваши инструкции по сканированию или индексации сайта. Подробнее о файле robots.txt…"

Из-за этого снимается 10 пунктов в "Поисковая оптимизация"

При этом, файл существует, серч консоль его видит и сканирует.

На сколько этот показатель критичен? Хотелось бы иметь все 100 пунктов😏

упд: если важен урл, то https://blr-akademie.de/robots.txt


1 для проверки роботс в консоли гугла есть спец раздел - в настройках, там можно при проблемах - пересканить его. 

2 Пейдж спид это синт тест, более важнее что у вас в консоли ( например с настройках есть скан и там скорость загрузки, так же есть инте показатели итд) . 100 или 90 или 80 - никакого влияния на ранжирование вы не заметите.


Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий