- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Google выпускает апдейты против генерированного ИИ текста, у многих трафик подает до нуля. Но апдейты Google против ИИ текстов затрагивают и обычные инфосайты, у многих из которых идет падение в последние месяцы.
Проблема может быть в том, что Google не может отделить ИИ текст от живого копирайтера. Например, через 3 известных сервиса AI Detector я прогнал тексты живых людей, а также тексты до 2020 года, когда еще и не было ИИ. Тексты были на трех языках. И во всех случаях детекторы показали, что от 68% и выше, этот текст написан ИИ.
Получается, что Google может определять текст от копирайтеров, как текст от ИИ.
При этом многие продолжают работать только от ИИ текстами. Как вы обходите проверки на роботность и какой процент текста ИИ считается нормальным? Есть ли у кого опыт работы с ИИ текстами, которые получили хорошие позиции и трафик в долгосрочной перспективе?
Проблема может быть в том, что Google не может отделить ИИ
через 3 известных сервиса AI Detector я прогнал тексты живых людей
И во всех случаях детекторы показали, что от 68% и выше, этот текст написан ИИ.
Сервисы не определяют происхождение текстов.
Сервисы определять схожесть с ИИ. В этом существенная разница.
Никого не интересуют чёткие границы, потому что универсально для всех случаев их определить невозможно и в общем не нужно.
Например, если вы создаете текст с помощью ИИ, а потом его дорабатывает копирайтер, его как считать, авторским текстом или это по-прежнему ИИ?
Или наоборот, проф. копирайтер использует ИИ для наброски тезисов, рабочей "рыбы", а потом выдаёт за авторский текст, его нужно определять как частичный продукт ИИ?
Есть ли у кого опыт работы с ИИ текстами, которые получили хорошие позиции и трафик в долгосрочной перспективе?
ИИ инструментарий уже используют все прогрессивные специалисты: копирайтеры, маркетологи, seo-шники, программисты, дизайнеры, фотографы, журналисты, блогеры и пр.
ИИ уже часть профессиональной среды. Вопрос только в том, какого качества итоговый результат.
через 3 известных сервиса AI Detector
Тут нужно уяснить одну простую вещь — никто понятия не имеет как именно google детектит ИИ-шность.
Все эти детект-сервисы — это больше для самоуспокоения.
Тут нужно уяснить одну простую вещь — никто понятия не имеет как именно google детектит ИИ-шность
Эту информацию в общем виде можно почерпнуть из работы, которая называется "Генеративные модели являются неконтролируемыми предикторами качества страницы: Исследование колоссального масштаба" от специалистов из Гугла.
В сети этот материал есть (у меня тоже, если кому нужно - скину в личку).
В нём вполне популярно объясняется с работа нейрогенеративными моделями и подходы в лингвистическом и в качественном анализе текста.
Однако многие сайты с контентом от ИИ определяются гуглом и падают до нуля… хотя на начальных этапах росли.
И это неслучайно. Чтобы отвадить пытливые умы от идеи на потоке генерировать AI тексты, превращать их в MFA заработок и масштабировать свою деятельность.
Однако многие сайты с контентом от ИИ определяются гуглом и падают до нуля… хотя на начальных этапах росли.
Гугл как и Яндекс дал зелёную дорогу трастовым сайтам, и не важно какие там тексты. Поведенческие как фактор ранжирования видимо тоже понизили или совсем отключили. В общем ни гугл ни яндекс не знают как бороться с накруткой поведенческих и оставили только трастовость, а на ИИ им до фонаря, они так же его везде используют.
Гугл как и Яндекс дал зелёную дорогу трастовым сайтам, и не важно какие там тексты. Поведенческие как фактор ранжирования видимо тоже понизили
На основании чего такие выводы?
По приколу сделал ОДНОСТРАНИЧНЫЙ сайт (еще на Chat GPT 2.0). Тупо одна страница и пару картинок, в стиле лендинга. Длина текста: 6158 (без пробелов: 5351)
Сделал и забил.
Итог:
И да ИИ не может создавать новое, может только пересобирать из старого
Также, как и 99% копирайтеров. Да и большинство дизайнеров просят десяток референсов, чтобы хоть что-то начать.