А там был какой то замес по прокси и глобальные парсеры перешли на бразильские, и ничего сделать нельзя ибо они выдачу парсят
Плюс Вьетнам и Аргентина.
Я не буду тут писать всякое, но смахивает что апдейт ещё не закончился. У меня только что появилась видимая информация(она никому не нужна) я увидел, что вчера сделал конкурент. Он был со мной вначале топе, а потом выпал как и я в никуда. Час назад прошёлся топвизором и он снова в топе. Что он сделал видео легко. Я уверен на 80% что не это ему помогло.
Везде измемнен текст, но только мета.
Я бы просто не спешил...
Вообще ни сколько. При обходе ботом - дополнительный алгоритм. Тут пользователи уже на глаз определяют генерку, а Вы считаете, что алгоритм систематизированный не сможет? Сколько ресурсов? Сколько и краулер. Действие одно. Ради чего? Ради подкормки для своего ИИ. Если текст генерка, значит не оригинал. Если на основе его выдать ответ, то вероятность ошибки увеличивается. Да и зачем Гуглу переработанный текст если он имеет доступ к оригиналу?
П.С. Я свой сайт не добавлял в поиск, не индексировал и нигде не светил. По итогу в Гугл поиске через пол дня вылез. Единственное, после размещения заходил на него через Хром. Если хром сливает инфу, то ваши ИИ ответы через хром тоже могут быть слиты, в процессе генерки. Даже не надо применять алгоритмы) Но, уверен, что при индексации, заодно и проверяют текст на генерку.
Черное и белое. А я вам серое предложу: редактированный ИИ, как чаще всего и бывает. И что делать будем, а?
Шанс ошибиться велик. Но если б только это! Вы представляете, сколько времени и ресурсов это пожрет? И ради чего? С этого не заработаешь.
Снятие 20% рекламы не дало ничего. Пока причины такого жёсткого падения не увидел.
Главная по прямому вхождению уже на 7 странице. Трафик с 10к в сутки с Гугла упал до 1к. Но новые страницы залетают в поиск мгновенно и сразу трафик идёт, но уже не в топ 5, в топ 20. На сайте текста ИИ и перевод, но отрерайчены. Остаётся только это. Переделать 450 статей нужно, но это по времени очень и очень затратно. Пока что не знаю.
Какой смысл в переписывании? Вы серьезно предполагаете, что гугл без устали тратит электроэнергию, чтобы узнать, не ИИ ли ваши статьи писал? Чтобы за это вам снизить позиции?
Это даже не смешно.
Предсказывалось еще на заре, когда гугловладельцы пешком под стол ходили. Это секрет полишинеля.
Не вводя валидации данных, нельзя решить эту проблему.
Валидация возможна методами матстатистики. Но не на 100%. Впрочем, на 100% предсказать можно только встречу с апостолом Петром.
Пока матметоды всем до одного места - хапают сливки. Сомнительно, чтобы индусы смогли поиграть в матстатистику всерьез. Знаний нет.
но он может определить это как дублирующийся контент, а люди будут винить нейросети
Может, а что делать... Техническая концепция гугла сама по себе такое... коричневатое.
я для прикола прогонял свои старые тексты, 20-летней давности, так большинство сервисов определили 100% генеренку
первое что приходит в голову - такие тексты за годы расползлись по всей сети и на них нейронки обучались
...и это одна из причин, по которым гуглу не приходит в голову каждую новую страницу как-то там идентифицировать на этот счет.
Вторая причина - кто за это неумное действие заплатит? У гугла, кажется, и так не все хорошо с вычислительными мощностями и счетами за электричество.
Они не готовы, я думаю, на такую непонятную муру тратиться )
у многих ресурсов так, есть вероятность. что новые алгоритмы гугл не могут отличать уже, где человек написал. а где генеренка, поэтому и выкидывает такое.
Они и не могли никогда. Басни СЕОшников.