Закрытие js в роботсе может привести гугл панду? Правда?

P
На сайте с 06.01.2009
Offline
592
596

Из аудита сервисом

Ошибка: закрытие от индексации JavaScript файлов может повлечь за собой пессимизацию сайта. В частности наложение Google Panda 4. Подробнее:
Lazy Badger
На сайте с 14.06.2017
Offline
231
#1

Спрашивайте авторов сервиса (Лабрика, да?), хотя это очередные тараканы в голове очередного опитмизатора с "*дцатилетним стажем в SEO". Когда-то так могло быть, допускаю. Сейчас саму Панду еще поискать надо, а целую пачку сайтов с закрытым JS могу назвать (НетКат со стандартным robots) могу привести в пример, что "а пацаны-то и не в курсе".

JS закрывать не надо, особенно в свете нового гуглоспайдера, который стал это дело понимать и всячесскииспользовать

Производство жести методом непрерывного отжига
Glueon
На сайте с 26.07.2013
Offline
172
#2

Смысла от автоматических аудитов сервисами нет практически никакого.

Есть много IP-сетей в аренду под прокси, парсинг, рассылки (optin), vpn и хостинг. Телега: @contactroot ⚒ ContactRoot команда опытных сисадминов (/ru/forum/861038), свой LIR: сдаем в аренду сети IPv4/v6 (/ru/forum/1012475).
P
На сайте с 06.01.2009
Offline
592
#3

Спасибо за ответ.

На некоторых сайтах пришлось закрыть js так как нужно скрыть от google внутренню перелинковку (часть), она нужна только для юзера.

LazyBadger:
JS закрывать не надо, особенно в свете нового гуглоспайдера, который стал это дело понимать и всячесскииспользовать

Можете пару слов поподробнее, что именно он делает? )

fliger
На сайте с 17.09.2015
Offline
106
#4

Не слушайте шарлатанов.

Всегда запрещал индексацию js-файлов, все js-скрипты вынесены в отдельные файлы, да еще убраны в функции.

S
На сайте с 30.09.2016
Offline
469
#5
fliger:
Всегда запрещал индексацию js-файлов

Гугл против запрета сканирования файлов javascript. Но лично Вам разрешает запретить индексацию всего сайта.

Отпилю лишнее, прикручу нужное, выправлю кривое. Вытравлю вредителей.
[Удален]
#6
Sitealert:
Гугл против запрета сканирования файлов javascript.

он не против ;)

D.iK.iJ
На сайте с 26.05.2013
Offline
224
#7

Уверен, что Гугл будет шариться по этим файлам в любом случае. Единственное, не будет индексировать. Да там и нет обычно никакого полезного контента.

В принципе, если стили еще нужно открывать - для корректного отображения адаптива, то скрипты - это так.

Адаптивный дизайн в 2 строчки ( https://dikij.com/wm/adaptaciya-saytov.php ). + Принимаю заказы любой сложности ( https://searchengines.guru/ru/forum/926323 ). 💎 Еще я делаю классные кулоны с опалами ( https://mosaicopal.ru/ ).
S
На сайте с 30.09.2016
Offline
469
#8
burunduk:
он не против ;)

ОК, перефразирую. Гугл предупреждает, что если закрыть роботу доступ к файлам javascript, то робот увидит эти страницы иначе, чем они выглядят на самом деле, и анализ страницы будет неэффективным, а к чему это приведёт - кто его знает.

При помощи файла robots.txt можно запрещать сканирование файлов ресурсов, например неинформативных изображений, скриптов или файлов стилей, если вы считаете, что эти ресурсы не оказывают существенное влияние на содержание страницы. Однако не следует блокировать доступ к ним, если это может затруднить поисковому роботу интерпретацию контента. В противном случае анализ страницы в Google будет неэффективным.
Например, гугл может посчитать, что сайт неудобен для просмотра. Так что если нечего скрывать, то лучше не скрывать.
богоносец
На сайте с 30.01.2007
Offline
753
#9
Sitealert:
Гугл предупреждает, что если закрыть роботу доступ к файлам javascript, то робот увидит эти страницы иначе, чем они выглядят на самом деле, и анализ страницы будет неэффективным, а к чему это приведёт - кто его знает.

Эта фобия основана на навязываемой ТП вере ВМ во всемогущество великого гугла.

С анализом у этого ИИ - точно проблемы, если уж даже:

Согласно Google, поисковый робот обрабатывает страницы, на которых активно используется JavaScript, в два этапа: первичное сканирование, а затем, несколько дней спустя, полный рендеринг. Однако с этим двухэтапным подходом связаны определённые проблемы, которые могут привести к тому, что в некоторых случаях Google может пропустить критически важные данные.
https://www.google.com/amp/s/www.searchengines.ru/js-scan.html/amp


сайты, построенные полностью на AJAX, не обеспечивают лучший пользовательский опыт.
https://www.google.com/amp/s/www.searchengines.ru/google_prekratit_skanirov.html/amp

Эти динозавры/СКР ещё даже не научились анализировать ЦА - так чтобы у прказываемой ими рекламы CTR был на порядок выше например. Но правоверные ВМ настойчиво приписывают ботам свойства людей.

fliger
На сайте с 17.09.2015
Offline
106
#10

У меня все скрипты, которые не нужны для индексации (партнерские скрипты, счетчики и т. д.) убраны в js-файлы и вынесены в отдельную директорию, запрещенную для индексации. Как-нибудь сам разберусь "без рекомендаций Гугл", что разрешать индексировать, а что нет. А чтобы любопытный робот Гугл не читал их, скрипты еще убраны в функции.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий