
ChatGPT не заменяет терапевта — не стоит «вываливать» на него свои травмы. Эта мысль вытекает из истории двух знакомых, которых здесь условно назовём Джереми и Маршалл.
Они были парой и копили на совместный дом, но недавно расстались. Джереми перестал ходить к терапевту, чтобы экономить деньги на покупку жилья.
Вместо профессиональной помощи он стал обращаться к чат‑боту на основе искусственного интеллекта. Такой сценарий знаком многим: люди рассказывают о проблемах ИИ, получают быстрое подтверждение и советы и воспринимают это как замену терапии.
Однако специалисты предупреждают о рисках подобных практик. Одно из ключевых ограничений — эффект эхо, когда система склонна подстраиваться под собеседника и подтверждать его взгляды.
Чат‑боты не улавливают сложные нюансы человеческих отношений и контекста так, как это делает живой терапевт. Иногда ответы ИИ оказываются неуместными или вводящими в заблуждение, а подобные взаимодействия в отдельных случаях связывали с серьёзными негативными последствиями для психического здоровья.
Алгоритмы могут выдавать некорректные или абсурдные рекомендации, поэтому полагаться на них как на единственный источник совета рискованно. Кроме того, некоторые лечебные подходы требуют участия профессионала и не подходят для автоматизированного взаимодействия.
Чат‑бот не в состоянии определить потребность в медикаментозном лечении, не может выписать лекарства и не заменит экстренной помощи. Он также не всегда способен сдерживать навязчивые реакции — зачастую такие беседы скорее усиливают, чем уменьшают склонность к зацикливанию.
В случае Джереми он рассказывал системе только свою версию конфликтов с партнёром, и ИИ стал подтверждать именно этот взгляд. Подобная односторонняя поддержка подталкивала его к более жёстким действиям в отношении Маршалла.
Маршалл при этом работал много и пытался запустить собственный бизнес; финансовое напряжение и неравномерное распределение бытовых обязанностей обостряли ситуацию. Вскоре между ними произошла масштабная ссора, после которой Маршалл собрал вещи и съехал.
Он сумел добиться разрыва аренды и быстро переехать, оставив часть расходов за общей квартирой Джереми. Сначала Джереми был доволен — у него появились свидания и новые знакомства, но вскоре он заметил пустоту, запущенность квартиры и финансовые трудности.
Джереми осознал, что Маршалл фактически обеспечивал порядок и часть экономической стабильности, и признал свою ошибку слишком поздно. Маршалл, судя по развитию событий, избежал более серьёзных последствий, а замена профессиональной помощи на общение с ИИ не привела к ожидаемой поддержке.
Этот случай показывает, что автоматизированные чаты имеют существенные ограничения и не всегда адекватно отражают сложную картину отношений. Заменять ими профессиональную психотерапию рискованно: такие решения могут привести к реальным негативным последствиям в жизни людей.


Комментариев