Причина будет всегда, даже когда её объективно нет. А вот проблема в том, что владельцам ресурсов остаётся лишь гадать, что не понравилось Google.
google news смотрит, чтобы datePublished<dateModified. если наоборот - ловишь warning в search console, и робот может решить, что статья «не готова» или свежесть сомнительная. ранжирование это почти не роняет, но в топ‑сторис /News может не попасть.
то, что вы выравниваете даты - правильный ход. главное, чтобы обе стояли в ISO‑формате и были в видимой части страницы (например, в<time>). тогда schema валидна, и вопросов у гугла не будет.
Спасибо за обратную связь.
Такая болячка распространена в WordPress с отложенными новостями. Условно, автор дописал статью в 13:00 (modified), а публикация прошла в 15:00 (published). Вот тут и возникает разница во времени из прошлого.
На удивление в GSC не было ни единого предупреждения на протяжении многих лет. Schema.org сейчас валидна, сайт стал чаще выходит в сниппеты.
Была мысль, что Google воспринимает это явление, как манипуляцию датами.
А что именно планируется сделать?
А новостники чем?
Большой трафик был на сайте?
В последнее время это кажется наиболее вероятной причиной такого массового спада, тем более 2024 ознаменовался активными спам-апдейтами. Если не секрет, то какие тематики мешали на личном опыте?
Ну так ФБ тоже трастовым за годы стал. Но порезали же по итогу. Тот же HubSpot блог недавно в порезку улетел, читали?
Когда их ожидает фильтрация и ожидает ли? И с чем связана такая выборочная фильтрация?
Мне кажется я понял, что такое «пылесосить трафик» в Google. Все кому не лень пишут абсолютно обо всём, даже несмотря на то, что это нетематический контент.
Решил найти историю одного мема, фактически вышли крупные лайфстайл/tech журналы, сайт банка, блог магазина электроники и КП, но единого намёка на какой-то сайт развлечений или какой-нибудь мемпедии. Вопрос в том, почему они ещё не фильтранулись по масштабированию контента?