“Привет, как ты себя чувствуешь сегодня?” – так может начаться диалог с искусственным интеллектом, который в последние годы все чаще подменяет психотерапевта. Приложения с ИИ‑ботами, подобными ChatGPT, предлагают поддержку 24/7, обещают понимание и даже рекомендации. Но все ли так просто?

беседа с ИИ фото Tim Witzdam

Журналистка и научная обозревательница Эллисон Паршалл в статье на Scientific American предупреждает: разговор с ChatGPT – это не терапия, и его возможности имеют серьезные ограничения, которые могут даже нанести вред.

Где заканчивается помощь и начинается риск?

ИИ умеет подстраиваться под тон собеседника, запоминать детали разговора и даже предлагать техники “самопомощи”. Но у него нет эмпатии, клинического мышления и профессиональной ответственности.

Психологи отмечают:

ChatGPT не распознает суицидальные намерения или тревожные симптомы с нужной точностью.

Он может предложить неверные советы, опираясь на шаблонные ответы, а не на глубокую диагностику.

В некоторых случаях он усиливает чувство изоляции, создавая иллюзию поддержки там, где требуется реальное вмешательство.

Почему так опасно?

Пользователи могут воспринимать разговор с ИИ как “достаточную” поддержку и не обращаться к специалистам даже при серьезных нарушениях психики. Особенно это касается молодежи и людей, находящихся в уязвимом состоянии.

“Мы не против использования ИИ как вспомогательного инструмента, – говорит психотерапевт Сьюзан Дэвис, – но он не должен заменять квалифицированную помощь”.

ChatGPT и подобные ему боты могут быть инструментом – как дневник, как пространство для рефлексии. Но не врачом. И уж точно не другом, который поймет вас на глубинном уровне.