Google рассказал подробнее об измерении Core Web Vitals

Сотрудник Google Мартин Сплитт (Martin Splitt) поделился в Twitter техническими деталями того, как поисковик измеряет показатели, входящие в состав Core Web Vitals.

Он рассказал об этом, отвечая на вопрос одного из специалистов. В частности, тот спросил:

«Если для проверки CLS, LCP и любых других показателей Web Vitals поисковый робот Googlebot использует user-agent, отличный от Googlebot, то каким будет его имя? Мы реализовали динамический рендеринг для Googlebot. Стоит ли тем, кто внедрил динамический рендеринг, беспокоиться о плохих показателях Web Vitals для URL в Search Console?».

Отвечая на вопрос, Мартин Сплитт сразу разделил его на несколько частей:

  1. Googlebot проводит измерения
  2. Динамический рендеринг и производительность
  3. Производительность и UX
  4. Данные по реальным пользователям (Real Users Metrics, rUM) vs лабораторные данные
  5. Отчёт по основным интернет-показателям в Search Console

Ответы по пунктам:

1. Googlebot проводит рендеринг с помощью Googlebot UA (user-agent). Во время рендеринга также могут быть собраны некоторые лабораторные данные. Однако это ещё не полная история. Беспокоиться о не-Googlebot UA не стоит.

2. Когда вы используете динамический рендеринг, вы можете создавать небольшую задержку, пока рендерер будет генерировать статичный HTML. Обойти это можно с помощью кеширования и регулярного предварительного нагрева кеша. Но производительность, которую будут видеть Googlebot и пользователь, будет разной.

3. Поэтому важно помнить, что: а) Google не может просто полагаться на те данные по производительности сайта, которые собирает Googlebot; б) ваши пользователи могут сталкиваться с медленной работой сайтов, что нужно будет исправить, поскольку медленные веб-сайты – это плохо для пользователей.

4. Переходим к измерениям: Googlebot (или Lighthouse, или PageSpeed Insights) измеряет «лабораторные данные», которые представляют собой данные по гипотетической производительности в довольно идеальной среде. И это не соответствует тому, что видят реальные пользователи.

5. Поэтому Google Search Console учитывает сочетание лабораторных данных и данных по реальным пользователям (rUM/Chrome UX Report) для определения сигналов производительности.

6. Отчёт об основных интернет-показателях в Chrome показывает ограниченные данные (поскольку не по каждому URL есть достаточный объём rUM-данных), но это реальные пользовательские метрики. Поэтому, если здесь что-то «плохо», то это значит, что страдают реальные пользователи, и это определённо нужно исправить.

Напомним, что в мае Google заменил отчёт о скорости в Search Console на отчёт об основных интернет-показателях (Core Web Vitals), которые были представлены 5 мая.

Отметим также, что Web Vitals станут частью нового сигнала ранжирования «Удобство страницы» (Page Experience), запуск которого ожидается в 2021 году.

Материалы по теме:

preview Бесплатный мастер-класс по улучшению ПФ от Артура Латыпова

Бесплатный мастер-класс по улучшению ПФ от Артура Латыпова

Как улучшить поведенческие «белыми» методами и вывести сайт в ТОП
preview Google: многие ручные санкции стали алгоритмическими

Google: многие ручные санкции стали алгоритмическими

Интернет слишком велик, чтобы проверять его вручную
preview Google прояснил: большое количество негативных отзывов может навредить сайту

Google прояснил: большое количество негативных отзывов может навредить сайту

И ухудшить его ранжирование
preview Google рассказал, как обратная связь помогает улучшать работу поиска

Google рассказал, как обратная связь помогает улучшать работу поиска

И какую роль играют в этом асессоры
preview Google советует с осторожностью использовать сторонние сервисы для комментариев и другого контента

Google советует с осторожностью использовать сторонние сервисы для комментариев и другого контента

Это касается Disqus и других подобных решений
preview Google: негативные отзывы не влияют на ранжирование сайта

Google: негативные отзывы не влияют на ранжирование сайта

Но они могут влиять на поведение пользователей