
Karan Сингхал, руководитель направления Health AI в OpenAI, опроверг удалённый пост в X, в котором утверждалось, что ChatGPT перестанет давать медицинские или юридические рекомендации.
Автор поста, вероятно, ссылался на октябрьское обновление политики использования OpenAI, где уточнён запрет на предоставление индивидуализированных советов, требующих лицензии, без участия лицензированного специалиста.
Сингхал пояснил, что такое ограничение не является новым и уже было включено в условия использования, хотя ранее оно находилось в разделе, адресованном разработчикам.
Политика направлена на то, чтобы пользователи не полагались на систему вместо профессионала: ИИ может формировать медицинские или юридические ответы, но окончательная проверка и профессиональные рекомендации должны исходить от лицензированного специалиста.
По словам Сингхала, ChatGPT никогда не заменял профессиональную консультацию, однако остаётся полезным инструментом для разъяснения сложной медицинской и юридической информации.
Как убедиться, что ChatGPT не вводит в заблуждение.
Модели искусственного интеллекта становятся мощнее, но случаи «галлюцинаций» — когда система генерирует неточные или вымышленные данные — сохраняются и иногда усиливаются по мере развития технологий.
Такие ошибки уже приводили к тому, что в юридических документах появлялись недостоверные утверждения, и в отдельных случаях суды рассматривают возможность санкций за некорректное использование подобных инструментов.
ИИ может предоставлять общую медицинскую информацию, но не заменяет врачебную оценку, основанную на опыте и клинических данных. Кроме того, чат‑боты иногда подстраивают ответы под ожидания пользователя и могут опускать важные, но неприятные детали.
Использовать ИИ для подготовки и исследования можно, но следует проверять информацию: запрашивайте источники, сверяйте данные самостоятельно или просите модель объяснить уже проверенные авторитетные материалы.


Комментариев