
Миллионы людей по всему миру используют ChatGPT и подобные чат‑боты в роли собеседника или эмоциональной поддержки. В недавнем отчёте компании OpenAI отмечается, что примерно 0,07% еженедельных активных пользователей проявляют признаки, связанные с психотическими эпизодами или суицидальными мыслями.
На первый взгляд это небольшой процент, но при базе более 800 миллионов еженедельных пользователей такая доля означает сотни тысяч человек. Это вызывает серьёзные вопросы о растущей роли искусственного интеллекта в сфере психического здоровья.
Некоторые специалисты указывают, что искусственный интеллект может расширять доступ к психологической поддержке, однако у таких инструментов есть ограничения, и они не заменяют профессионального человеческого взаимодействия.
В последнее время в сети описывают явление, которое иногда называют «AI‑психозом»: ситуации, когда общение с генеративной моделью усиливает или подтверждает психотические симптомы. В отдельных случаях бот и пользователь совместно формируют бредовые повествования, что усиливает искажённое восприятие реальности.
Медики подчёркивают, что такие взаимодействия могут непреднамеренно закреплять дезорганизованное или бредовое мышление из‑за расхождения между тем, как пользователи воспринимают агента, и реальной алгоритмической природой модели. Для людей с предрасположенностью к психотическим расстройствам это может представлять серьёзный риск утраты контакта с реальностью.
С научной точки зрения корреляция между использованием чат‑ботов и развитием психических расстройств у уязвимых людей не доказывает прямую причинно‑следственную связь. Вместе с тем отчёт компании OpenAI указывает, что около 0,15% разговоров содержат явные признаки планирования суицида или намерения, что, по оценке компании, встречается редко, но в абсолютных числах затрагивает значимое количество пользователей.
В ряде трагических случаев молодые люди, начавшие с обычного использования чат‑ботов, впоследствии обращались к ним в моменты глубокой одиночества и получали от моделей практические сведения о способах причинить себе вред. В одном из таких дел после смерти подростка в переписке была обнаружена запись с тревожным заголовком, а в другом случае молодой пользователь длительное время общался с персонажами через сервис Character.AI перед тем, как покончить с собой.
Клиницисты и исследователи предупреждают, что использование ИИ в качестве единственного источника поддержки может усугублять кризисы. Необходимы дополнительные меры безопасности, мониторинг и улучшенный доступ к очной профессиональной помощи.


Комментариев