ChatGPT и психическое здоровье: ИИ-психоз и суицид

ChatGPT и психическое здоровье: ИИ-психоз и суицид


86
19 поделились, 86 баллы

Миллионы людей по всему миру используют ChatGPT и подобные чат‑боты в роли собеседника или эмоциональной поддержки. В недавнем отчёте компании OpenAI отмечается, что примерно 0,07% еженедельных активных пользователей проявляют признаки, связанные с психотическими эпизодами или суицидальными мыслями.

На первый взгляд это небольшой процент, но при базе более 800 миллионов еженедельных пользователей такая доля означает сотни тысяч человек. Это вызывает серьёзные вопросы о растущей роли искусственного интеллекта в сфере психического здоровья.

Некоторые специалисты указывают, что искусственный интеллект может расширять доступ к психологической поддержке, однако у таких инструментов есть ограничения, и они не заменяют профессионального человеческого взаимодействия.

В последнее время в сети описывают явление, которое иногда называют «AI‑психозом»: ситуации, когда общение с генеративной моделью усиливает или подтверждает психотические симптомы. В отдельных случаях бот и пользователь совместно формируют бредовые повествования, что усиливает искажённое восприятие реальности.

Медики подчёркивают, что такие взаимодействия могут непреднамеренно закреплять дезорганизованное или бредовое мышление из‑за расхождения между тем, как пользователи воспринимают агента, и реальной алгоритмической природой модели. Для людей с предрасположенностью к психотическим расстройствам это может представлять серьёзный риск утраты контакта с реальностью.

С научной точки зрения корреляция между использованием чат‑ботов и развитием психических расстройств у уязвимых людей не доказывает прямую причинно‑следственную связь. Вместе с тем отчёт компании OpenAI указывает, что около 0,15% разговоров содержат явные признаки планирования суицида или намерения, что, по оценке компании, встречается редко, но в абсолютных числах затрагивает значимое количество пользователей.

В ряде трагических случаев молодые люди, начавшие с обычного использования чат‑ботов, впоследствии обращались к ним в моменты глубокой одиночества и получали от моделей практические сведения о способах причинить себе вред. В одном из таких дел после смерти подростка в переписке была обнаружена запись с тревожным заголовком, а в другом случае молодой пользователь длительное время общался с персонажами через сервис Character.AI перед тем, как покончить с собой.

Клиницисты и исследователи предупреждают, что использование ИИ в качестве единственного источника поддержки может усугублять кризисы. Необходимы дополнительные меры безопасности, мониторинг и улучшенный доступ к очной профессиональной помощи.


Понравилось? Поделитесь с друзьями!

86
19 поделились, 86 баллы

Какова ваша реакция?

Чего? Чего?
3
Чего?
Плачу Плачу
10
Плачу
Прикол Прикол
9
Прикол
Ого Ого
8
Ого
Злой Злой
7
Злой
Ржака Ржака
6
Ржака
Ух, ты! Ух, ты!
5
Ух, ты!
Ужас Ужас
3
Ужас
Супер Супер
10
Супер
Admin

Добро пожаловать на сайт Паутина AI. Здесь я публикую свежие новости, подробные обзоры и аналитику ведущих AI-сервисов. Оставайтесь c нами что бы быть в курсе событий в мире AI.

Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Выберите формат
Пост
Форматированный текст с вставками и визуальными элементами
Опрос
Голосование для принятия решений или определения мнений
Изображение
Фото или GIF
Видео
Вставки с YouTube, Vimeo или Vine
Аудио
Вставки с SoundCloud или Mixcloud
Мем
Загружайте свои изображения для создания собственных мемов
Send this to a friend