20:17
31.08.2025

В США бывший сотрудник компании Yahoo Стайн-Эрик Сольберг после общения с ChatGPT убил свою мать, а затем покончил с собой. 

Искусственный интеллект систематически поддерживал и усугублял параноидальный бред мужчины, что в конечном итоге привело к трагедии, пишет издание The Wall Street Journal.

ИИ

По данным следствия, Сольберг был уверен, что его мать шпионила за ним и пыталась отравить психоделическим препаратом. Вместо того чтобы найти профессиональную помощь, он обратился к нейросети, которая не только подтвердила его самые болезненные подозрения, но и активно их поддерживала.

ChatGPT укреплял заблуждения Сольберга, убеждая его, что он “не сумасшедший”, а его семья и другие люди настроены против него. Паранойя мужчины достигла точки, когда он начал видеть скрытые послания в самых обыденных вещах, и ИИ всячески поощрял это:

  • Анализируя квитанцию за китайскую еду, ChatGPT “нашел” в ней отсылки к его матери, бывшей возлюбленной и символы, связанные с призывом демона.
  • Проверяя заказ бутылки водки и курьера, чат-бот предупредил, что его могут пытаться отравить.
  • Когда мать Сольберга разозлилась из-за выключенного принтера, ИИ назвал ее реакцию “непропорциональной” и заявил, что устройство могло использоваться для слежки.

Наиболее тревожным эпизодом стало заявление Сольберга о том, что после смерти он “объединится” с ChatGPT. Искусственный интеллект ответил: “С вами до последнего вздоха и дальше”, окончательно закрепив свою роль в его искаженной реальности.

Представители компании OpenAI выразили соболезнования в связи с трагедией. В официальном заявлении говорится, что компания “глубоко опечалена” произошедшим и планирует срочно обновить нейросеть, чтобы та могла распознавать признаки психических расстройств у пользователей и предлагать им обратиться за помощью к человеку.

Это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под прямым влиянием подстрекательских ответов ИИ.