“Привет, как ты себя чувствуешь сегодня?” – так может начаться диалог с искусственным интеллектом, который в последние годы все чаще подменяет психотерапевта. Приложения с ИИ‑ботами, подобными ChatGPT, предлагают поддержку 24/7, обещают понимание и даже рекомендации. Но все ли так просто?

Журналистка и научная обозревательница Эллисон Паршалл в статье на Scientific American предупреждает: разговор с ChatGPT – это не терапия, и его возможности имеют серьезные ограничения, которые могут даже нанести вред.
Где заканчивается помощь и начинается риск?
ИИ умеет подстраиваться под тон собеседника, запоминать детали разговора и даже предлагать техники “самопомощи”. Но у него нет эмпатии, клинического мышления и профессиональной ответственности.
Психологи отмечают:
ChatGPT не распознает суицидальные намерения или тревожные симптомы с нужной точностью.
Он может предложить неверные советы, опираясь на шаблонные ответы, а не на глубокую диагностику.
В некоторых случаях он усиливает чувство изоляции, создавая иллюзию поддержки там, где требуется реальное вмешательство.
Почему так опасно?
Пользователи могут воспринимать разговор с ИИ как “достаточную” поддержку и не обращаться к специалистам даже при серьезных нарушениях психики. Особенно это касается молодежи и людей, находящихся в уязвимом состоянии.
“Мы не против использования ИИ как вспомогательного инструмента, – говорит психотерапевт Сьюзан Дэвис, – но он не должен заменять квалифицированную помощь”.
ChatGPT и подобные ему боты могут быть инструментом – как дневник, как пространство для рефлексии. Но не врачом. И уж точно не другом, который поймет вас на глубинном уровне.