Люди не оставляют попыток призывать к ответу искусственный интеллект за обучение на объектах их интеллектуального труда. ИИ отбивается с помощью других людей.
Обсуждают решение по делу Getty Images v Stability AI (Getty Images (US) Inc & Ors v Stability AI Ltd (Rev1) [2025] EWHC 2863 (Ch)) о легальности обучения ИИ - модели Stable Diffusion по известной базе визуального контента Getty.
Stable Diffusion использует метод генерации изображений с помощью “латентной диффузии”, придуманный проф. Бьёрном Омером (Bjӧrn Ommer) и Робином Ромбахом (Robin Rombach) в 2021. Получаются картинки большего разрешения, чем при “пиксельной” диффузии (п 30 решения).
ИИ прокололся на том, что оставлял на своих картинках “водяные знаки” (watermarks), которые ставятся на все изображения библиотеки Гетти (п 26). Watermarks имеют отличительные особенности и зарегистрированы как товарные знаки (п 24 решения).
Пойманный с поличным ИИ не стал отпираться, что повторял геттивские знаки (пп 50, 138), но его барристеры заявили ряд формальных возражений:
⁃ виноваты люди, которые пишут промпты;
⁃ воспроизводство знаков не является “использованием в коммерческой деятельности”;
⁃ не доказано, что знаки появлялись на изображениях в UK, чей закон не действует за рубежом.
Судья Джоанна Смит (Mrs Justice Joanna Smith DBE) столкнулась с труднейшей задачей, поскольку ИИ-ответчик - это 3 модели, постепенно совершенствовавшиеся, каждая из 3-5 версий, тренированных на разном контенте. К решению пришлось приложить ИИ-словарь (43 терм.) и Инструкцию, объясняющую как потребители сталкиваются со «значками Гетти» в ИИ-среде.
Эксперт истцов проф. Фарид с помощью 2600 экспериментальных промптов доказал, что и 1-я, и 2-я версии ИИ-модели дают водяные знаки, похожие на геттивские, хотя их количество уменьшалось, а чёткость размывалась (п 170; суд для наглядности вставил в 201-стр. решение десятки картинок).
Переписка программистов подтвердила, что они пытались уйти от “значков Гетти” в новых версиях ИИ, обучая их на dewatermarked картинках (п 159).
Барристер ИИ настаивал, что суд не должен принимать во внимание эксперимент проф Фарида, реальные пользователи могли не писать такие же промпты (п 177).
Оценивая риск того, что картинки ИИ м. б. спутаны с фотографиями Гетти, суд опирался на тест “среднего потребителя” ('average consumer’), разумно информированного и осмотрительного (п 260).
Суд решил, что Гетти доказал нарушения его прав 1-й и 2-й версиями ИИ, но это имеет “исторический и очень ограниченный” эффект (п 757). Сейчас ИИ существует в версии “XL” (отбилась от иска). Отказано и в признании “вторичного нарушения” IP-прав, поскольку ИИ не хранит в себе изображения Гетти и не передаёт в UK.
Getty показывает, что споры против ИИ уже настолько сложны, что можно просто не найти нужного эксперта, чтобы выиграть. Если подходить к обучению разных версий ИИ-моделей не как к единому процессу, а прослеживать использование отдельных данных в разных ИИ-моделях, учитывая, что они самосовершенствуются, доказать нарушение IP практически невозможно. В Getty эксперты сторон не могли до конца понять и пояснить, как ИИ учился на картинках Гетти, почему на одних есть «значки», а на других нет, и какова статистическая вероятность повторов. Суд вынуждено признал, что от экспертов мало пользы (п 199 решения).
ИИ и люди-юристы разошлись в оценке результатов дела. ChatGPT и DeepSeek считают, что ответчик крупно проиграл, а решение - важнейший прецедент. Напротив, IP-солиситор, спрошенный The Gazette, назвал решение “сырой петардой”, в частности, потому что Гетти отказался от основного иска после того, как ответчик согласился прекратить использовать его базу при обучении.
В книге AI on Trial предлагается указывать в заявках на патент на использование «машин для изобретений», что в скором времени видимо станет общепринятым (Deem/Warren AI on Trial, 2nd ed., Bloomsbury, р 137).
Ранее рассказывал, как в 2023 Бюро Авторских Прав США отказалось признать картину «Космический оперный театр», созданную ИИ, охраняемой.