
Кирстин МакНайт, руководитель практической группы коммерческого юрфирмы LegalVision, выделила основные юридические риски, с которыми владельцам бизнеса следует считаться в 2026 году, и дала рекомендации по их снижению.
Первый риск связан с неопределённостью прав собственности и авторских прав на результаты, созданные с помощью ИИ. При использовании ИИ для генерации контента существует реальная вероятность непреднамеренного нарушения авторских прав, а право собственности на такой контент часто остаётся неясным, что может привести к спорам о праве на использование, изменение или продажу материалов.
В качестве примера была названа судебная тяжба между Getty Images и Stability AI, в которой Getty утверждала, что модель обучали на миллионах защищённых изображений без разрешения; в британском процессе основной иск по авторскому праву не увенчался успехом, хотя суд установил ограниченное нарушение товарного знака в связи с воспроизведением водяного знака в ранних выводах. Для защиты бизнеса рекомендуется внимательно проверять лицензии и условия использования ИИ-инструментов, прописывать права собственности в договорах, внедрять внутренние процедуры проверки выводов и документировать эти проверки.
Второй риск — «галлюцинации» ИИ, приводящие к введению в заблуждение при принятии решений. Исследования показывают, что значительная доля ответов ИИ содержит серьёзные ошибки, вымышленные детали или устаревшую информацию, что делает их ненадёжными для юридически и финансово значимых решений.
Неправильные или вводящие в заблуждение ответы ИИ могут повлечь за собой риски введения в заблуждение, иски о небрежности и даже штрафы за предоставление властям неверной информации — вплоть до сумм, указанных в действующих нормативных актах (примерно до €7,5 млн в ряде юрисдикций). Для уменьшения риска организации должны не полагаться на ИИ как на окончательный авторитет, вводить обязательную человеческую проверку и верификацию выводов, а также явно обозначать, что контент создан или подготовлен с помощью ИИ.
Третий риск — отсутствие внутреннего управления использованием ИИ. Многие компании внедряют ИИ-инструменты без чётких правил, что повышает вероятность неправильного использования, передачи в модели конфиденциальных или чувствительных данных и несвоевременного выявления опасных результатов.
Для уменьшения этого риска необходимо разработать и внедрить корпоративную политику по использованию ИИ, определить допустимые цели и сценарии применения, установить процедуры проверки выводов и распределить ответственность за решения, основанные на ИИ.
Четвёртый риск связан с нарушениями приватности и защитой данных. Модели ИИ опираются на большие наборы данных, которые могут содержать персональные сведения клиентов, сотрудников или третьих лиц; их использование без надлежащего согласия или надёжной анонимизации может привести к существенным штрафам и репутационному ущербу.
Организации, обрабатывающие персональные данные с помощью ИИ, должны соблюдать требования защиты данных: собирать только необходимые сведения, вести учёт согласий или иного правового основания для обработки, а также прозрачно информировать заинтересованные стороны о способах использования данных.
Пятый риск — быстро меняющиеся требования регулирования ИИ. Законодательство в этой сфере развивается по-разному в разных юрисдикциях и может распространяться на уже внедрённые системы, что создаёт риск несоответствия и возможного принудительного реагирования со стороны регуляторов.
Во избежание правовых последствий компаниям рекомендуется постоянно отслеживать изменения в регулировании, регулярно проводить аудит ИИ-систем, проектировать решения с учётом гибкости для быстрой адаптации к новым требованиям и интегрировать соблюдение нормативов в операционные процессы.


Комментариев