Googlebot не может получить доступ к файлам CSS и JS на сайте

A1
На сайте с 22.01.2015
Offline
12
#61

Уважаемые, можно так делать?

User-agent: * 
Disallow: /engine/
Sitemap: http://site.ru/sitemap.xml

User-agent: Yandex
Disallow: /engine/
Host: site.ru

User-agent: Googlebot
Disallow: /engine/
Allow: /engine/*.js
Allow: /templates/*.css
Allow: /uploads/*.png

Всем роботам запрещаю каталог /engine/, sitemap для всех роботов.

Хост только для Яндекса, так как по-моему это нужно только для них.

Гуглу запрещаю каталог /engine/, но разрешаю скрипты, картинки и стили.

Верно? Disallow: /engine/ необязательно дублировать?

M
На сайте с 15.06.2010
Offline
158
#62

Robots.txt используют для того что бы блокировать а не разрешать. Как по мне команда Allow бред

Посетите мой сайт: https://www.sweet-shop.kiev.ua/
C
На сайте с 05.12.2014
Offline
27
#63

Так вот вопрос тогда, если дать доступ к js, то как теперь закрывать внешние ссылки?

Или придерживаться стандартных рекомендаций nofollow?

StaroverovMax
На сайте с 31.05.2006
Offline
174
#64

По всей видимости гугл интересует мобильная версия сайта отсюда и предупреждения, ведь многие знают фокус с css, когда не имея мобильной версии сайт проходил проверку гугла, как "отлично оптимизирован под мобильные устройства". Только теперь придётся от такого отказаться и открыть папки css и templates.

Открываем всё для гугла и закрываем от всех остальных.

Сила есть - ума еще больше надо.. Фитнес, бодибилдинг (http://sportmashina.com), а форум - закачаешься! (http://forum.sportmashina.com/index.php)
AR
На сайте с 03.01.2008
Offline
76
#65

Хорошая инструкция как устранить данную проблему:

http://seoprofy.ua/blog/optimizaciya-sajtov/googlebot-css-js.

T
На сайте с 30.07.2015
Offline
4
#66

Сделал как написано тут Норм расписано.

A2
На сайте с 23.06.2008
Offline
192
#67

User-Agent: Googlebot

Allow: /*.js

Allow: /*.css

И все дела.

я злой и страшный серый волк я в поросятах знаю толк
grot86
На сайте с 07.11.2007
Offline
155
#68
Milash:
Robots.txt используют для того что бы блокировать а не разрешать. Как по мне команда Allow бред

А если у Вас раздел на сайте (папка) в котором ещё штук 10 подразделов из которых нужно закрыть 9 и один открыть. Как будете закрывать?

Я бы сделал так:

Disallow: /content

Allow: /content/1

Если бы не было команды Allow

пришлось бы делать

Disallow: /content/2

Disallow: /content/3

Disallow: /content/4

Disallow: /content/5

и т.д.

Или есть ещё варианты? Наверное можно регуляркой указать, но в зависимости от кол-ва подпапок и их названий мне кажется это будет более проблематично.

Мой рейтинг поставщик мобильных прокси: https://clck.ru/38ub3L
Mills
На сайте с 24.06.2009
Offline
116
#69
Alex2Fast:
User-Agent: Googlebot
Allow: /*.js
Allow: /*.css

И все дела.

Проблема целиком не решилась. Все равно предлагает исправить ошибки на сторонних сайтах..

png 144209.png
A2
На сайте с 23.06.2008
Offline
192
#70
Mills:
Проблема целиком не решилась. Все равно предлагает исправить ошибки на сторонних сайтах..

Это находится уже на внешних сайтах ведь. Речь ведь идет что бот не может прочесть файлы на нашем сайте.

Тем более эти директивы - рекомендация от специалистов из Google (с небольшой правкой, иначе Яндекс начинал ругаться при проверке роботса).

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий