
Высокий суд Англии и Уэльса вынес 4 ноября 2025 года решение по делу между Getty Images и Stability AI, сочтя исход судебного разбирательства частичной победой для Stability AI. Суд отклонил претензии Getty по вторичному нарушению авторских прав, но признал ограниченные нарушения по товарным знакам, связанные с появлением синтетических водяных знаков в старых версиях Stable Diffusion.
В решении по делу IL-2023-000007 суд установил, что модель генерации изображений Stable Diffusion не воспроизводит и не хранит защищённые авторским правом фотографии Getty во время обучения или в весах модели. Судья Джоанна Смит пришла к выводу, что модель усваивает статистические распределения из тренировочных данных, а не сохраняет копии исходных работ, что стало ключевым моментом в анализе нарушения авторских прав.
Getty Images начала исковые действия в январе 2023 года, утверждая, что для обучения Stable Diffusion было использовано около 11 миллионов охраняемых авторским правом изображений без разрешения. Истцы выдвигали претензии по нескольким основаниям: использование исходных изображений в обучении, генерируемые пользователями результаты и сама модель как «нарушающий товар» в рамках британского права об авторском праве.
Stability AI опровергала все претензии, указывая, что обучение велось вне юрисдикции Великобритании и что модель функционирует посредством статистического обучения, а не путём воспроизведения контента. Юридический спор во многом сконцентрировался на вопросе территориальности и на том, где именно совершались решения, приводящие к предполагаемым нарушениям.
Юрисдикционный аспект стал решающим для основных требований Getty. Stability AI представила доказательства, что разработка и обучение Stable Diffusion осуществлялись на серверах за пределами Великобритании, в том числе на кластерах облачного провайдера и через репозиторий CompVis. В результате Getty отозвала свои претензии, связанные с входными и выходными материалами, в конце процесса, ссылаясь на трудности в доказательстве совершения нарушений на территории Соединённого Королевства.
Судья отклонила теорию Getty о вторичном нарушении, указав, что модели, обученные на защищённых работах, не обязательно являются «нарушающими товарами». Поскольку Stable Diffusion, по выводам суда, не хранит и не воспроизводит охраняемые произведения в весах модели или в выходных изображениях, она не подпадает под определение нарушающей копии по положению раздела 27(3) соответствующего закона.
Техническая работа диффузионных моделей вошла в центр юридического анализа. Судебные материалы описывали архитектуру latent diffusion: сжатие изображений в математическое представление при обучении и извлечение статистических закономерностей, а не хранение пиксельных копий. Модель состоит из вариационного автокодировщика для сжатия и разжатия, U‑Net для операций денойзинга в латентном пространстве и текстового кодировщика CLIP для обработки запросов.
Во время обучения происходила настройка миллиардов числовых весов и смещений в слоях нейронной сети для минимизации ошибок предсказания, при этом финальная модель не хранит декодируемых копий тренировочных изображений. Суд посчитал, что такие параметры отражают статистические зависимости между описаниями и визуальными паттернами, а не содержат извлечённых в исходном виде охраняемых работ.
По претензиям о товарных знаках суд установил узкую ответственность Stability AI за изображения со сходными с водяными знаками визуальными элементами, которые могли ввести потребителей в заблуждение относительно источника или принадлежности контента. Нарушения были связаны с версиями Stable Diffusion 1.x и 2.1, в которых время от времени появлялись такие элементы.
Однако ответственность по товарным знакам была ограничена релизами, распространявшимися через собственные платформы Stability AI, включая DreamStudio и Developer Platform API. Суд не признал компанию ответственной за выпуск через репозиторий CompVis на GitHub, произошедший до коммерческого вовлечения Stability AI.
Претензии Getty по разделу 10(3) Закона о товарных знаках 1994 года и иски о введении в заблуждение (passing off) были отклонены за недостатком доказательств ущерба или ложного представления о причастности Getty к сгенерированному контенту. Иск по правам на базы данных также не нашёл достаточной поддержки и был в значительной степени снят.
В процессуальной истории дела Stability AI подала ходатайство об исключении отдельных претензий в октябре 2023 года, но судья отклонила его в декабре 2023 года, отметив «неотвеченные вопросы и противоречия» в показаниях бывшего генерального директора Эмада Мостака. Обе стороны прошли через подробный этап раскрытия доказательств, касающийся характера обучающих и разработческих работ.
Решение имеет практическое значение для разработчиков искусственного интеллекта, рекламной отрасли и правообладателей. Суд подтвердил, что статистическое обучение само по себе, при отсутствии воспроизведения, не влечёт вторичного нарушения авторских прав по британскому праву, но поставил вопрос о рисках, связанных с непроизвольным воспроизведением защищённых брендов.
Getty объявила о намерении использовать фактические выводы британского решения в параллельных процессах в США. Компания отозвала иск в Делавэре в августе 2025 года и сосредоточила требования в федеральном суде Калифорнии, где потребовала судебного разбирательства с присяжными. В иске заявлялись расчёты ущерба в размере 150 000 долларов за каждое из 11 383 предполагаемых нарушений, что давало потенциальную суммарную цифру около 1,7 миллиарда долларов.
Stability AI охарактеризовала решение как разъясняющее ключевые вопросы авторского права применительно к обучению моделей на общедоступных данных. Компания и её представители подчёркивали, что признание ответственности за статистическое обучение могло бы серьёзно ограничить исследовательскую и разработческую деятельность, особенно в открытых проектах.
Мнения экспертов в сфере права разделились. Часть юристов посчитали, что суд провёл чёткое разграничение: обучение, не приводящее к хранению или воспроизведению работ, не равно вторичному нарушению. Другие выразили опасение, что допускается ввоз моделей, обученных вне юрисдикции Великобритании, без надлежащей защиты прав авторов.
Решение совпадает с активными обсуждениями в законодательстве и регуляторике: в 2025 году происходили инициативы по повышению прозрачности использования защищённых материалов в обучении моделей и по созданию процедур для идентификации использованных произведений. Эти процессы отражают стремление сбалансировать интересы праводержателей и развитие технологий ИИ.
В тексте решения отмечено, что более поздние версии Stable Diffusion, включая Stable Diffusion XL, выпущенные в июле 2023 года, содержали архитектурные изменения и улучшения фильтров, которые, по оценке суда, не приводили к тем же нарушениям по товарным знакам, выявленным в версиях 1.x и 2.1.
Практические последствия включают необходимость для поставщиков моделей более тщательно оценивать источники тренировочных данных и внедрять механизмы фильтрации, способные снижать вероятность воспроизведения защищённых знаков и брендинга в сгенерированном контенте. Масштабное обнаружение подобных нарушений остаётся технически сложной задачей.
Открытое распространение весов моделей усложняет исполнение решений и определение ответственности, поскольку пользователи могут загружать и запускать модели вне контроля первоначального разработчика. Суд сконцентрировался на релизах, распространённых через коммерческие платформы компании, при определении ответственности по товарным знакам.
Несмотря на частичную победу Stability AI по авторским правам, решение не закрывает все вопросы: суд не дал окончательного ответа по первичным претензиям о воспроизведении при обучении в пределах юрисдикции Великобритании, поскольку Getty сняла соответствующие обвинения в ходе процесса. В будущем подобные случаи могут уточнить применение британского права к обучению моделей, если будет доказано совершение правонарушений на территории страны.


Комментариев