- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Из аудита сервисом
Спрашивайте авторов сервиса (Лабрика, да?), хотя это очередные тараканы в голове очередного опитмизатора с "*дцатилетним стажем в SEO". Когда-то так могло быть, допускаю. Сейчас саму Панду еще поискать надо, а целую пачку сайтов с закрытым JS могу назвать (НетКат со стандартным robots) могу привести в пример, что "а пацаны-то и не в курсе".
JS закрывать не надо, особенно в свете нового гуглоспайдера, который стал это дело понимать и всячесскииспользовать
Смысла от автоматических аудитов сервисами нет практически никакого.
Спасибо за ответ.
На некоторых сайтах пришлось закрыть js так как нужно скрыть от google внутренню перелинковку (часть), она нужна только для юзера.
JS закрывать не надо, особенно в свете нового гуглоспайдера, который стал это дело понимать и всячесскииспользовать
Можете пару слов поподробнее, что именно он делает? )
Не слушайте шарлатанов.
Всегда запрещал индексацию js-файлов, все js-скрипты вынесены в отдельные файлы, да еще убраны в функции.
Всегда запрещал индексацию js-файлов
Гугл против запрета сканирования файлов javascript. Но лично Вам разрешает запретить индексацию всего сайта.
Гугл против запрета сканирования файлов javascript.
он не против ;)
Уверен, что Гугл будет шариться по этим файлам в любом случае. Единственное, не будет индексировать. Да там и нет обычно никакого полезного контента.
В принципе, если стили еще нужно открывать - для корректного отображения адаптива, то скрипты - это так.
он не против ;)
ОК, перефразирую. Гугл предупреждает, что если закрыть роботу доступ к файлам javascript, то робот увидит эти страницы иначе, чем они выглядят на самом деле, и анализ страницы будет неэффективным, а к чему это приведёт - кто его знает.
Гугл предупреждает, что если закрыть роботу доступ к файлам javascript, то робот увидит эти страницы иначе, чем они выглядят на самом деле, и анализ страницы будет неэффективным, а к чему это приведёт - кто его знает.
Эта фобия основана на навязываемой ТП вере ВМ во всемогущество великого гугла.
С анализом у этого ИИ - точно проблемы, если уж даже:
https://www.google.com/amp/s/www.searchengines.ru/js-scan.html/amp
сайты, построенные полностью на AJAX, не обеспечивают лучший пользовательский опыт.
https://www.google.com/amp/s/www.searchengines.ru/google_prekratit_skanirov.html/amp
Эти динозавры/СКР ещё даже не научились анализировать ЦА - так чтобы у прказываемой ими рекламы CTR был на порядок выше например. Но правоверные ВМ настойчиво приписывают ботам свойства людей.
У меня все скрипты, которые не нужны для индексации (партнерские скрипты, счетчики и т. д.) убраны в js-файлы и вынесены в отдельную директорию, запрещенную для индексации. Как-нибудь сам разберусь "без рекомендаций Гугл", что разрешать индексировать, а что нет. А чтобы любопытный робот Гугл не читал их, скрипты еще убраны в функции.