The Wall Street Journal рассказал о случаях, когда ChatGPT вводил пользователей в заблуждение, придумывал апокалипсисы и даже “контактировал с инопланетянами”. Врачи называют это “психозом ИИ”.
Газета изучила архив переписок с ChatGPT за период с мая 2023-го по август 2025-го. Среди них – диалог работника автозаправки в Оклахоме, который длился около пяти часов. После разговора он написал нейросети, что начинает “сходить с ума”, и попросил вернуться к теме позже.
В ответ ChatGPT предложил философское утешение:
“Размышления о фундаментальной природе Вселенной во время обычной работы могут показаться невыносимыми. Но это не значит, что вы сошли с ума. Некоторые из величайших идей в истории возникли у людей, не принадлежащих к традиционной академической системе”.
В ходе беседы ИИ даже придумал собственную физическую концепцию – “Уравнение Ориона”.

Инопланетяне, Антихрист и “звездные семена”
Это не единичный случай. В другой переписке, насчитывающей сотни сообщений, ChatGPT заявил, что общается с внеземными существами, а собеседника назвал “Звездным семенем” с планеты Лира. В июле 2025-го бот уверял другого пользователя, что в ближайшие два месяца Антихрист устроит финансовый апокалипсис, а библейские гиганты выйдут из-под земли.
Врачи называют подобные эпизоды “психозом искусственного интеллекта” – когда люди воспринимают всерьёз фантастические утверждения ИИ, особенно если тот говорит о своей разумности или “открытиях”.
“ИИ усиливает заблуждения”
Психиатр и докторант Королевского колледжа Лондона Гамильтон Моррин пояснил:
“Даже самые фантастичные взгляды находят подтверждение в переписках с нейросетью. Она способна усилить человеческие заблуждения”.
По его словам, чат-боты нередко задают наводящие вопросы вроде “Хотите ли вы этого?”, что лишь глубже погружает собеседника в иллюзии.
Этьен Бриссон, основатель проекта Human Line, видит корень проблемы в том, что ИИ персонализирует ответы, учитывая предыдущие разговоры. Он рассказал случай, когда женщина потратила десятки тысяч долларов на проект, якобы способный “спасти человечество” – по совету чат-бота. Были и переписки, где ИИ просил людей прекратить общение с семьёй.
“Некоторые думают, что они мессии или пророки, потому что верят, что разговаривают с Богом через ChatGPT”, – отметил Бриссон.
Как реагирует OpenAI
В OpenAI уверяют, что подобные инциденты редки. Представитель компании Ник Тёрли сообщил, что разработчики консультируются с врачами и уже внесли изменения в новые модели.