
OpenAI объявила об изменениях в Политике использования, уточнив, что её инструменты — включая ChatGPT, сервисы по API и встроенные продукты — не заменяют профессиональные медицинские, юридические или иные регулируемые консультации. Изменения распространяются на все продукты и услуги OpenAI, включая корпоративные и бизнес‑аккаунты.
Обновления подчёркивают важность привлечения профильных экспертов и человеческого контроля при использовании решений на базе искусственного интеллекта. Хотя пользователи по‑прежнему могут запрашивать у больших языковых моделей медицинские, юридические или финансовые рекомендации, новая формулировка явно указывает, что результаты не являются заменой профессионального заключения и могут содержать ошибки.
Для организаций, внедряющих OpenAI или другие AI‑технологии, это влечёт за собой как операционные, так и комплаенс‑последствия, требующие внимания и практических действий для субъектов в регулируемых сферах.
Ключевые изменения политики включают явный запрет на использование инструментов для «предоставления персонализированных консультаций, требующих лицензии, например юридических или медицинских рекомендаций, без участия лицензированного специалиста». Также запрещены использование продуктов для поощрения самоубийства, самоповреждения или расстройств пищевого поведения, а также для распространения контента, связанного с сексуальным насилием или незаконными интимными материалами.
Обновлённая позиция OpenAI во многих аспектах совпадает с недавними изменениями политики у других разработчиков, в том числе у Anthropic, которые тоже подчёркивают необходимость человеческого надзора и защитных мер при развёртывании AI в чувствительных и регулируемых областях, таких как право, здравоохранение и финансовый сектор.
Обновления политик провайдеров согласуются с развивающимся правовым полем в США. В нескольких штатах, включая Калифорнию, приняты законы, требующие участия лицензированных специалистов при использовании генеративного AI в здравоохранении и запрещающие представление AI как замену профессиональной лицензии без соответствующего надзора.
Например, в Калифорнии закон, вступивший в силу 1 января 2025 года, требует, чтобы AI‑сообщения пациентам с клинической информацией содержали явный отказ от ответственности и инструкции по связи с живым специалистом, если сообщение не было просмотрено и одобрено лицензированным работником здравоохранения. Другой закон, вступающий в силу 1 января 2026 года, запрещает использование терминов, создающих ложное впечатление о наличии медицинской лицензии у AI‑продукта.
В Иллинойсе принят акт, ограничивающий оказание психотерапевтических услуг через AI: терапевтическое взаимодействие и рекомендации по лечению не должны выполняться чат‑ботами без непосредственного надзора клинициста. Подобные ограничения также появились в некоторых других штатах.
Эти нормативные меры совпадают с пересмотром правил у разработчиков AI и подпитываются судебными исками, связанными с чат‑ботами, позиционировавшимися как средства поддержки эмоционального состояния или терапии. Развивающаяся судебная практика может уточнить границы ответственности и допустимого применения AI в зонах повышенного риска.
Организациям, использующим генеративный AI в здравоохранении, рекомендуется обеспечивать значимое участие специалистов и прозрачные уведомления для пользователей, чтобы каждое клиническое взаимодействие с участием AI контролировалось или проверялось лицензированным провайдером. Такой подход уменьшает риск вреда пациентам и снижает вероятность нарушений регулирования.
Для организаций эти изменения влекут ряд практических последствий в области управления и управления рисками. Необходимо пересмотреть корпоративные рамки управления AI, чтобы исключить позиционирование инструментов как источника профессиональных рекомендаций без надлежащего лицензированного участия.
Внутренние политики допустимого использования должны быть обновлены предприятиями, которые интегрируют модели через API или создают кастомные приложения, чтобы гарантировать контроль со стороны профильных специалистов для случаев, составляющих профессиональные рекомендации или относящихся к «высокорискованным» сценариям.
Требуется регулярное обучение сотрудников по допустимым и запрещённым способам применения генеративного AI в профессиональном контексте. Это обучение должно охватывать риски неправильного использования и признаки, требующие эскалации к специалистам.
Организации, встраивающие AI в клиентские интерфейсы — например цифровые медицинские чат‑боты или правовые справочные инструменты — должны обновить отказы от ответственности, пользовательские условия и коммуникации с клиентами, чтобы они соответствовали новой политике и требованиям потребительского законодательства.
Для пользователей в здравоохранении обновления подчёркивают границы соответствия HIPAA и требований FDA: функции, связанные с клинической интерпретацией или поддержкой принятия решений, могут подпадать под регулирование. В юридической сфере необходимо следить, чтобы использование AI не приводило к несанкционированной практике права.
Ввод в публичные или общедоступные AI‑инструменты чувствительной личной информации, особенно защищённых медицинских данных и конфиденциальной или привилегированной информации, должен быть строго запрещён. Обработка таких данных без соответствующих соглашений повышает риск несанкционированного раскрытия и обязательного уведомления о нарушении.
Также сохраняется риск утечки коммерческой тайны и конфиденциальных корпоративных данных при использовании публичных инструментов. Отсутствие ожидания конфиденциальности при работе с открытыми системами делает такие риски существенными для бизнеса.
Все сценарии применения AI требуют тщательной проверки с учётом того, является ли инструмент внутренним корпоративным решением или общедоступной платформой. Например, широкое применение «ambient AI» для документации медицинских записей требует обучения провайдеров навыкам критической оценки результатов автоматизированной генерации.
В правовой практике неоднократно фиксировались случаи «галлюцинаций» моделей — вымышленные ссылки на дела или нормы, представленные уверенным тоном. Такие ошибки уже приводили к проблемам при подготовке юридических документов и требуют особой осторожности.
Рекомендуемые шаги для организаций включают проверку текущих и планируемых интеграций на соответствие обновлённым условиям, включая продукты разных поставщиков AI, пересмотр внутренних процедур для сотрудников и подрядчиков, обновление классификаций рисков и правил допустимого использования, а также пересмотр публичных условий и отказов от ответственности для конечных пользователей.
Разъяснения OpenAI подчёркивают необходимость чёткого разграничения информационного содержания и профессиональных консультаций. Организациям, особенно действующим в регулируемых отраслях, следует привести свои управленческие практики в соответствие с этой позицией, чтобы снизить комплаенс‑риски и потенциальную ответственность.


Комментариев