Вряд-ли. Я например где-то правлю абзац или несколько, а где-то могу просто ошибку поправить, где-то добавляю новые, где-то удаляют. И что, за это фильтр? За правку инфы?
Но то что песссимизирует за изменение дат в тупую, это 100%
Вот я к этому и склоняюсь, что апп больше затронул тех, кто менял даты и обновлял контент по минимум. Скорее всего фильтр какой, если большая часть контента на сайте менялась с минимум инфы. По моим наблюдениям, чтобы изменилась дата в снипете гугла, нужно отредактивроать контент на процентов 20+, не меньше
Тогда обманите гугл и поменяйте даты создания тем в базе данных сайта. 😄 Плюсаните полгодика или год к дате создания каждой темы. Нужно, чтобы в вашем sitemap даты создания тем тоже обновились. 😁
Да это опасно, WP в последнем обновлении даже добавили опцию, чтобы при обновлении статьи не менялась дата обновления. Так как гугл очень негативно относится к обновлению статей, когда минимум информации было обновлено. Я раз в год все статьи обновляю, каждые несколько месяцев сажусь и переписываю что-то, исправляю ошибки и дополняю. Но Гуглу все равно. В поисковой выдаче сайты без мобильной версии и с контентом 2015 года. А я с фильтром 🤣
Хотя несколько статей я обновляю постоянно именно дату создания, и все нормально кстати.
Стоит ли делать двойной редирект при переносе сайта на новый домен?
Тема Blocksy максимально лёгкая, движок WP, без лишних плагинов, все изображения webp. Показатели 99-100 производительности и все в зелёных зонах. Скрипты отложены рекламные и метрика на 5 сек. Это уже не в ту степь вы пошли. Аудиты делал и автоматические и ручной, все нормально.
Однако в Google Search Console в пункте Core Web Vitals мобильная версия имеет проблемы CLS. И так уже несколько месяцев после исправления ситуации. На самом деле CLS сейчас ноль. Подаю на переобход страниц и исправление проблемы, но все точно также. Как будто бот обленился и не хочет проверять страницы.
Тогда, хотя бы тему сменить на сайте попробовать, гугл не тратит свои мощности на разбор кривых скриптов сайта.
Всё нормально, но это не значит что в самом индексирующем боте гугла ошибки не бьются.
Ну ладно, не буду мешать, эксперта вы себе выбрали уже. 😄
я интересовался конкретно чем
1. После того как авто перевод был размещен и до порезки прошел месяц - верно ?
2. После порезки страницы авто перевода были удалены - верно ?
3. После удаления страниц - когда в консоли они были переиндексированы и попали в статус любой другой отличный от индекса ?
то что вы отхватили деиндекс после среза трафика - это обычное дело
Надо посмотреть точные данные. Скажу позже
Лучше смени движок сайта. Что то не правильно работает и напорчено в скриптах сайта.
Все работает корректно, нечему неправильно работать.
я про удаленные страницы
Возможно, так как очень плохо индексировал страницы гугл. Через 2 месяца после того как получил фильтр уже около трети страниц вылетело из индекса. Никак не индексировал, как бы я не пробовал. Через IndexAPI тоже никакого толку не было. Недавно удалось загнать половину вылетевших через телеграм бот по индексации, но новые вылетели.
Просто доходит до абсурда, у меня по некоторым запросам был топ-1, так как конкурентов не было. Но после того как я получил фильтр, по этим запросам я улетел куда-то на 50-ю страницу. Самое смешное что по целевым ключам отображается главная страница с превью, но не целевая. Гугл просто выкинул почти все страницы из поиска.
CF снял в ноябре, ничего не изменилось. Да и правила проверял, гугл бот был разрешен и все корректно было настроено. Делал специалист, сам я туда не лазил.
На удаленные страницы я 410 код кинул в ноябре, чтобы он перестал индексировать и тратить краулинговый бюджет. Думал после этого может начнет индексировать нормально, но нет.
До фильтра Google и Яндекса по трафику одинаково давали, теперь Google в 6-10 раз меньше.
Проиндексировал сразу, но позиции у переведенных страниц были далеко и трафика не было из поиска. Я их поэтому удалил сразу через некоторое время.
Однако на феврале-марте 2024 года я также боролся с бототрафиком, но это было не долго. Была настроена фильтрация трафика с помощью CloudFlare и ботов всех сразу обрубило.
Думаю боты тут вообще не причем, может быть конечно фильтрация CF была катализатором, но скорее всего автопереводы.
ну да автоперевод дело поганое. рубит в ноль. Фильтр автоматический или меры ручные ?
какие временные рамки были между всеми происшествиями
Не знаю, в консоли ничего не указано. Просто трафик в 6 раз обрубило одним днём. Примерно через месяц.