- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Что-то мне кажется, что гугл затеял какую-то чистку. Старые страницы выпадают из индекса, но в серч консоли пишутся как в индексе. Сами страницы как страницы, на разных сайтах и разных тематик, ничего особенного. В принципе, так и раньше было, но есть отличие - их стало в последние пару недель на порядок больше за единицу времени и они в серч консоли отображаются как в индексе, что по сути не дает возможности что-то с ними сделать.
Тоже самое уже полгода примерно, сайт индексируется в выдаче появляется, через какое-то время пропадает из выдачи. По консоли все ок, с контентом нет проблем, никакой переоптимизации, накрутки и ссылок, не пойму что делать. Кто сталкивался? Какой выход в такой ситуации?
на форум гугла напишите - там как раз собирают сейчас случаи по индексации и багам консоли
Владимир, вы о чем, какой форум google, поисковик никогда не "прислушивался" к советам какого-то форума, который создал неизвестно кто. В отделение русскоязычного офиса уже давно снисходительно улыбаются в отношении так называемого гугл-форума, на котором нет ни одного представителя от google, а только самопровозглашенные "эксперты", которые тусуются там, чтобы только поднять свое "я" в своих же глазах и похвалиться на русскоязычных форумах, поди-ка я эксперт.
А слабо "поработать" на зарубежных площадках и рассказать там, что есть эксперты по продуктам, о которых google ничего не знает 😄
У кого-то была/есть такая ситуация? Что с этим делать? Раньше всегда было, если страница отображается в индексе в серч консоли, то она реально в индексе. А теперь непонятно что делать.
Да, я обнаружил такую же ситуацию. Спрашивал уже по закрытым телеграм каналам. Ситуация дико не приятная. У меня это на старых сайтах с хорошим трастом. Нет таких проблем только у моих новостников, их гугл не трогает.
Из подсказок посоветовать могу только одно. Проверьте проект на ИИ контент. Нет я понимаю что вы пишите статьи сами или заказываете, но гугл совсем озверел к ИИ сайтам. Хоть типо его официальная заява что ИИ сайты тоже могут быть хорошими бла бла бла, на самом деле гугл ведёт жесточайшую борьбу с ИИ контентом.
Маразм ситуации в том что ваш контент может быть и вовсе не ИИ, но проверялки гугла его таким сочтут и если процент таких вот "выявленных" старниц превысит критическую массу, проект начнёт тонуть.
Я уже заранее жду тут орду тех кто скажет что они рубят всё чатомгпт и всё у них стоит как вкопанное в ТОП1, но это временное явление.
Еще обширнее проблема в том, что нейронки стали (особенно на английском) писать реально очень похожие на живого человека текста и то что там прикручивает гугл чтобы такое детектить толко самому гуглу и известно.
Просто пока не все и не во всех нишах с этим столкнулись потому и не понимают о чём вы. Я чётко понимаю потому как ситуация просто идентичная.
Думаю что связь с выкидыванием страниц тут так же чётко прослеживается. У меня гоша выкидывает страницы 2020 года, прям чётко в консоли их режет под корень.
Мой подытог такой: Гоша подозреваемые им страницы кидает на доп проверку, которая может быть очень длительной, в моём случае до 3-х недель. Он показывает зелёным что они в индексе потому что он их реально проиндексировал, но в индекс он их не пускает пока своей новой штуковиной не проверит и, видать, штуковина реально требует ресурсы (думаю GPU), которых раньше в таком кол-ве не требовалось, оттого на этом этапе страницы долго застревают на проверке.
Возможно, конечно это всё мои домыслы, но как человек который 3 года до появления чатгпт тестил много чего на собственных моделях я вот вижу такие симптомы. Если у кого другие мысли -- делитесь, не стесняйтесь.
Владимир, вы о чем, какой форум google, поисковик никогда не "прислушивался" к советам какого-то форума, который создал неизвестно кто. В отделение русскоязычного офиса уже давно снисходительно улыбаются в отношении так называемого гугл-форума, на котором нет ни одного представителя от google, а только самопровозглашенные "эксперты", которые тусуются там, чтобы только поднять свое "я" в своих же глазах и похвалиться на русскоязычных форумах, поди-ка я эксперт.
хватит нести чушь
https://support.google.com/webmasters/thread/217127361- это кто ?
на форуме массовые проблемы передаются инженерам и они их чинят, что уже не один раз было. И Какое еще отделение русскоязычного офиса ? 🤣
что есть эксперты по продуктам, о которых google ничего не знает 😄
это ты ничего не знаешь - на сглотни
У кого-то была/есть такая ситуация? Что с этим делать? Раньше всегда было, если страница отображается в индексе в серч консоли, то она реально в индексе. А теперь непонятно что делать.
Аналогичная ситуация. Сайт под англоязычную аудиторию, возраст 2 года.
Проверяла много страниц по узким запросам. В консоли пишет, что она в индексе, никаких ошибок и фильтров в кабинете нет. Через "site:" по запросу страница находится, но по самому запросу не ранжируется от слова совсем. При этом по этому же запросу на 10-15 позициях уже откровенный шлак, не относящийся к теме, а моего домена нет и в помине. Та же самая ситуация с поиском в картинках (мне поиск в картинках важен).
Год назад все было неплохо, в мае 2022 трафик дропнулся, но за полгода немного восстановился. Этой весной потихоньку все меньше и меньше стал показываться в поиске. За последние 2 недели практически исчез из поиска, в статистике не больше 100 кликов в день.
Для сравнения у меня есть менее информативный и менее оптимизированный сайт на ту же тему на русском языке, страниц на нем где-то 10-12 раз меньше. Индексируется значительно лучше, через 1 день новые страницы уже ранжируются и видны на хороших позициях.
Проверила уже все - sitemap, robots, разметку, настройки сервера, блэклисты, скорость, pagespeed, дублирование контента, тошноту, проверила качество сайта всякими seo-тулзами. Супер критичного ничего нет - маловато ссылок на сторонних ресурсах и чуть многовато дублирующего контента (в желтой зоне, но и конкурентов так же). Но все по качеству не настолько плохо, чтобы мусорные сайты не по теме по узким запросам были лучше меня.
И опять же для примера. Добавила англоязычный домен в вебмастер Bing - и буквально за неделю он можно сказать полетел в стратосферу по сравнению с Гуглом. То есть у меня трафика из Bing больше в 8 раз, чем из Гугла, с учетом того, что Бингом пользуются 3 калеки.
Если у кого-то есть какие-то догадки, буду очень благодарна, так как идей уже нет совсем. Как будто бы наложили какой-то фильтр, но непонятно какой.
Гоша подозреваемые им страницы кидает на доп проверку, которая может быть очень длительной, в моём случае до 3-х недель. Он показывает зелёным что они в индексе потому что он их реально проиндексировал, но в индекс он их не пускает пока своей новой штуковиной не проверит и, видать, штуковина реально требует ресурсы (думаю GPU), которых раньше в таком кол-ве не требовалось, оттого на этом этапе страницы долго застревают на проверке.
это все теория заговоров. Нет смысла проверять старые статьи когда еще чата не было от слова вообще.
А ты не думал о том что у кого-то например был фильтр за thin content или он это предполагал и как появилась возможность он их добавил/изменил/переписал с помощью ИИ.
когда еще чата не было от слова вообще.
Это самая, самая большая ошибка... все просто зациклились на ChatGPT ))) Кто сказал что, например я, вообще им пользовался. Я не пользовался и сейчас не пользую. Это бессмысленная хрень которая детектится любым ИИ детектором, ОСОБЕННО хвалёная GPT4. Что уж там говорить про гугл.
К слову Джасперы, Джарвисы и прочие куилботы существовали задолго, а уж модель Т5 от самого гугла. Так что Владимир, учи матчасть ))) В это теме ты явно НЕ в теме.
Сейчас вообще всё что на публику называют ИИ и нейро сетями это производные продуктов Open AI, ну и еще 2-х-3-х компаний. Я с индусом в бассейне купался в отеле и он мне затирал как мутит сервис покупая токены к API от Open AI на сотню с лишним инструментов. Всё то что на публике этот тот же Давинчи просто обёрнутый в сервис.
Но люди кто обходят детекты пользуются совсем другими вещами, которые появились задолго до того как произошел именно бум ChatGPT которых произвёл эффект вау.
---
Мало того, после релиза ChatGPT и его бума на всю вселенную, многие очень авторитетные издания такие как FT, CNET, BI, WSJ, WP и прочие ПУБЛИЧНО признались, что ГОДАМИ пользовались подобными тулами. Ты просто посмотри сколько контента наплодил тот же COLLIDER. Ты просто глянь сколько приходится на одного автора (официального) и прикинь сколько таких лонгридов он публиковал в день!
Один вопрос когда только крупняки пользовались такими своими разработками, совсем другой когда такую тулзу дали в массы да еще и БЕСПЛАТНО.
---
А логика была простая -- убить конкурента. Microsoft мечтал отобрать у гугла часть а то и весь рынок. У MS доход от поиска (bing) вообще не основной от слова совсем, потому, они особо ничего не теряли. Вот они и стали потихоньку убивать гугл а потом доход гугла сократился на 30%. И в гугле озверели.
Сначала гугл заявил что будет бороться с ИИ, потом выпустл BARD, потом заявил что не будет бороться с ИИ. Но практика показывает что ИИ представляет реальную угрозу основному доходу гугла, который идёт именно с поиска информации и любой англогооврящий эксперт мою ТЕОРИЮ ЗАГОВОРА подтвердит. Потому что нет тут никакого заговора, а обычная человеческая логика.
---
А теперь давай пойдём еще дальше по этой логике. Чтобы детектить одну модель нужна другая модель и её нужно внедрять в поиск. Как ты, к примеру, будешь детектить новостной контент? А, а ну, расскажи! Там ходит быстробот и индексирование моментальное. А знаешь что тот же COLLIDER и другие суют вообще весь контент в новости и статьи встают на позиции за считанные секунды. Каким образом отследить статья написана человеком или ИИ? А думаешь с такими технологиями хоть у одного из крупных издателя не появилась идея сократить свой штат сидящий в стеклянных офисах США, получающих ЗП по американским меркам как проф журналисты, страховку, пенсию и тд. Не смеши мои носки... Весь маломальский крупняк и средняк сидит на быстроботе в новостях и гугл вынужден бросить все силы чтобы не пустить туда ИИ контент, потому что это 100/100 YMYL и E-E-A-T, особенно, в нынешнее время.
А ты не думал о том что у кого-то например был фильтр за thin content или он это предполагал и как появилась возможность он их добавил/изменил/переписал с помощью ИИ.
ну есть такие 100% и что ?
переиндексировать все страницы в мире - глупости.Может разве что в будущем
Но практика показывает что ИИ представляет реальную угрозу основному доходу гугла
ИИ только как функционал представляет угрозу. А как источник контента - нет.
Я знаю точно что гоша не дает трафик на тупо ии тексты на сегодня в коммерце, уже пол года выискиваю инфу, опыты только отрицательные. Про новости - там совсем другой мир, и я туда не лезу, встроить в быстробот анализатор ии текстов - наверное сложная операция.