Формируется некая судебная практика. Далее уже суды, а тем более юристы действуют в этих рамках. Сейчас именно такой момент, и поэтому интересно. Да и что нам юристы, бог с ними, куда важнее решение суда, особенно мотивировочная часть.
Пока что получается, что если не хранишь и не демонстрируешь изображение или текст => не используешь. Изучать и анализировать, натаскивать ИИ можно сколько угодно.Если ИИ «прочитал» текст/изображение, но не хранит фрагменты в воспроизводимом виде → это всё чаще трактуют как fair use (добросовестное использование) или даже как неиспользование в смысле авторского права.
Вот площадка может доступ ограничить, как сделал Reddit. И судится он сейчас именно за несанкционированный доступ, а не за авторские и смежные права.
А что вы понимаете под использованием изображения? Это не такой простой вопрос. Да и с доказательствами тут, прямо скажем, труба.
Сейчас наблюдаю за рядом дел в мире по картинкам против нейросетей. Но пока что-то реально наклевывалось только у GettyImages, и тех суд прокатил по сути. Хотя там на генерируемых фото тупо угадывался водяной знак.
Вот новость:https://3dnews.ru/1131943/vagnaya-pobeda-ii-stability-ai-viigrala-sud-u-getty-images-po-delu-ob-avtorskih-pravah
А вот как картинки выглядели, например:
> На заседании суд постановил, что Stability AI нарушила права на товарный знак Getty Images, используя изображения с водяными знаками. Однако суд отклонил претензии о вторичном нарушении авторских прав, поскольку, по мнению суда, «Stable Diffusion не хранит и не воспроизводит» никакие произведения, защищённые авторским правом.
Кстати, кроме собственно искажений, которые часто ломают любые структуры, есть и другие проблемы.
Все методы что-то закодировать в изображение известны уже не один десяток лет. Можно даже файл спрятать небольшой. Также, как и уязвимостей хватает и проблем. Есть также методики для обнаружения таких знаков.
Раньше это были статистические инструменты. Когда мы начинаем изображению добавлять какую-то структуру - это сразу влияет на распределения яркости, шума, резкости. На те самые статистики, по которым естественные изображения отличаются от модифицированных.
Стеганография ведь всегда добавляет структуру, пусть даже минимальную: чуть иначе ведут себя низкие биты, иначе распределяются частоты, меняются локальные паттерны.
Со временем методы стали хитрее, а вместе с ними — и детекторы. Сейчас уже используют не только классическую статистику, но и модели, обученные на гигантских наборах изображений. Такие модели видят то, что человек не заметит: микроскопические отклонения в текстуре, нехарактерные корреляции между пикселями, странные паттерны на границах частотных блоков.
Причем поломать тут всегда проще, чем искать. Понимая где лучше всего прятать - там и пройтись, чуть подкрасив эти места, немного размыв и т.п. Форматы то достаточно простые, там особо некуда деться. Я уж не говорю об ИИ, который может вообще другой кадр нарисовать, который опять же, можно аккуратно доработать,
Почему не устанавливается? Наоборот, насколько я знаю, старые версии Android очень любят за множества разных дыр незакрытых и легаси-возможностей самого Android.
А учитывая еще, что приложения постепенно перестают обновляться и закрывать дырки, так это самая благодатная почва.
Сегодня часть серверов по SSH была недоступна, часть просто рвется соединение через 5-10 секунд. Пришлось через РУ-сервер транзитом.
Я думаю эксперимент по фильтрации контента. Многие гипотезы можно подтвердить только в боевых условиях, такова суть работы с живым трафиком.
Всю ночь и утро не работали многие VPN, включая AdGuard.
PS. Под сайты лучше выбирать хостинги с лимитным трафиком, хоть и большим. Спокойно работают.
Reddit подал иск в федеральный суд Манхэттена против ИИ-поисковика Perplexity, а также трех компаний, которые помогают ему собирать данные (SerpApi, Oxylabs и AWMProxy). В иске говорится, что Perplexity и партнеры занимались "промышленным" сбором контента, обходя технические ограничения и не заключая лицензионных соглашений, как это делают, по словам Reddit, например Google и OpenAI. Чтобы подкрепить обвинения, в Reddit подстроили "ловушку". Компания создала тестовый пост, который был доступен только для краулера Google и не был виден обычным пользователям и внешним сборщикам данных. По утверждению Reddit, содержимое этого поста уже через несколько часов появилось в ответах Perplexity. Для Reddit это прямое доказательство того, что Perplexity (через сторонних парсеров результатов поиска Google) получает закрытые для нее данные. В тексте иска этот прием сравнивается с помеченными купюрами, которые иногда используют следователи.
Вот собсно об этом я и говорил. За крупными подтянулся и мелкие, схему отработают, и придется AI-гигантам подходы то менять.Схема кстати очень простая. В свое время так базы данных и карты метили, а потом в суд. А суд уже и сотрудников подтянет. А им врать под присягой резона нет.
Иногда кажется, что должны ведь грамотные люди работать в OpenAI, уж как минимум гугл понимают что такое и как пользоваться.И наверное умеют своим инструментом пользоваться
А все чаще такие вот новости: Сотрудник OpenAI извинился за то, что приписал GPT-5 чужие научные открытия (https://habr.com/ru/news/958672/)
А все почему? Потому что все бегут за прибылью, за славой. Не хотят признавать очевидные ограничения и т.п. Надувают надувают свой пузырь:)
Представляю как мощно обучают и корректируют ChatGPT плоскоземельщики при написании статей;)