Как Google обрабатывает сайты с очень большим количеством рекламы

Сотрудник Google Джон Мюллер рассказал, как поисковик обрабатывает сайты с большим количеством рекламы с точки зрения ранжирования.  

Вопрос на эту тему был задан на последней видеовстрече Google Search Central, которая состоялась 11 декабря. Он звучал так: 

“По некоторым запросам я вижу, что Google ранжирует сайты с большим количеством рекламного контента, который создаёт плохой пользовательский опыт. Как Google обходится с этими сайтами?”. 

В ответ Мюллер описал несколько факторов, которые определяют, как сайты с большим количеством рекламы будут ранжироваться. Иногда Google также может удалять их из поиска, но только в самых крайних случаях. 

Мюллер также объяснил, почему Google выбирает оставлять в индексе те сайты, которые очевидно нарушают рекомендации для вебмастеров.  

Сайты с большим количеством рекламы в SERP 

Поскольку в вопросе не было конкретных примеров, то Мюллер отвечал на него в общем, ориентируясь на сайты с плохим UX. 

Он привёл несколько факторов, которые могут влиять на то, как ранжируются такие сайты. В их числе: 

  • Алгоритм Page Layout, запущенный в 2012 году. Влияет на те сайты, которые содержат слишком много рекламы на первом экране. 
  • Алгоритм Page Speedзапущенный в 2018 году. Сайты с большим количеством рекламы могут пострадать, если их страницы медленно загружаются. 
  • Набор показателей Core Web Vitals, который будет запущен в мае 2021 года. Нацелен на сайты с неоптимальным пользовательским опытом.  

Страницы с плохим UX могут по-прежнему ранжироваться 

Мюллер отметил, что страницы с плохим пользовательским опытом могут по-прежнему ранжироваться и занимать высокие позиции, если они очень релевантны конкретным запросам. 

Например, это могут быть запросы, которые включают название сайта. И даже если у сайта плохой UX, Google всё равно покажет его в результатах поиска, поскольку это именно то, что ищет пользователь. 

Google редко удаляет из индекса сайты с плохим UX 

Независимо от того, насколько плохой пользовательский опыт на сайте, Google не удалит его из результатов поиска только по этой причине. 

Ручное удаление обычно используется для тех сайтов, которые совершенно нерелевантны и не содержат никакой уникальной информации. Но это бывает очень редко. 

Например, сотрудники Google могут вручную удалить сайт с полностью скопированным контентом. Такой контент может быть расценен как чистый спам, который не имеет никакой ценности для пользователей. 

По мнению Мюллера, сохранение сайтов с неоптимальным UX в результатах поиска также важно по той причине, что многие люди не знают всего, что нужно делать на сайте. Они не в курсе важных деталей и не понимают, что применённые ими советы могут иметь плохие последствия. 

Например, это могут быть представители малого бизнеса, которые не являются специалистами по поисковой оптимизации и веб-разработке, но самостоятельно ведут свои сайты. 

Прослушать вопрос к Мюллеру и его ответ на него можно на видео: 


Источник: Search Engine Journal
preview Google перенесёт инструмент проверки структурированных данных на сайт Schema.org

Google перенесёт инструмент проверки структурированных данных на сайт Schema.org

А не отключит его, как планировалось ранее
preview Google тестирует расширяемые сниппеты в поиске

Google тестирует расширяемые сниппеты в поиске

Они разворачиваются по клику
preview Google: иногда скопированный контент более релевантный, чем оригинальный

Google: иногда скопированный контент более релевантный, чем оригинальный

А определить владельца – непростая задача
preview Google о разнице между санкциями за спам и дезинформацию

Google о разнице между санкциями за спам и дезинформацию

И какую роль в этом играют алгоритмы