manderson :
На данный момент я смотрю на разные решения, но хочется понять, есть ли реально рабочие сервисы для определения ИИ-контента? Как вы защищаете свой сайт от публикации непроверенных или сгенерированных текстов?
Буду благодарен за ваши советы и опыт!
text.ru - в помощь, работает на индексе Гугла.Если ИИ задать условие уникальность - создает 100% уникальный текст, а часто ворует с сайтов куски текстов.Копирайтеров можно смело убирать - текст от ИИ + немного доработать вручную ..
Яндекс ввёл какой-то новый фильтр?) Любой запрос вбиваешь - 4 страница (не 5, не 6 и не 10). Несколько сайтов так просели (трафик под 0, разумеется). Причём в вебмастере в блоке "Популярные запросы" показывает запросы, которых никогда и не могло быть, но параметры такие: 300 показов / 20 кликов. и т.д.....
Совсем уже там походу крыша поехала у Яндексоидов с их ПФ)). Храни Господь Гугл.
Рэпперов нужно приглашать.Рэпперы их фсё!
Школьники выходя из школы даже с медалью, не могут общаться на ин языке, вроде и арабский уже подключают. Нет реальной практики. Во времена Наполеона из Франции учителей привозили. Сегодня Франция закрыта, можно привозить из Таджикистана.
Мне посчастливилось лично офлайн пообщаться с SASH (давно).Спросил его тогда, на чем он все делает?Он сказал на фруктах ( FL Studio )
"Карочи я буду песать так как гаварю" - так норм?
Как раз он какой то редактор, пишет очень грамотно даже для простого человека. Бросается в глаза сразу, такие люди уже сами по себе пишут как в газете и по простому не могут.