Бывший топ-менеджер убил мать после переписок с ChatGPT: ИИ убедил его, что она хочет отравить сына

Мужчина страдал от паранойи, которую ИИ только подпитывал.
Буйнта Бембеева
Буйнта Бембеева
Бывший топ-менеджер убил мать после переписок с ChatGPT: ИИ убедил его, что она хочет отравить сына
Unsplash

В США бывший топ-менеджер технологической компании совершил убийство собственной матери, а затем свел счеты с жизнью после того, как искусственный интеллект убедил его в том, что она якобы хочет его отравить. Об этом сообщает The Wall Street Journal, ссылаясь на материалы полиции и публичные записи погибшего.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

56-летний Стейн-Эрик Сельберг, долгое время работавший в крупных IT-компаниях, в последние годы страдал от психических расстройств. Весной 2025 года он начал активно переписываться с ChatGPT и делиться с ним своими подозрениями о масштабной слежке. Мужчина был уверен, что против него действует заговор, и практически на каждом шагу искусственный интеллект подтверждал его догадки.

У ChatGPT появится родительский контроль? OpenAI изменит работу ИИ после иска о самоубийстве

Нейросеть Илона Маска слила в сеть сотни тысяч диалогов: среди них оказался даже план покушения на миллиардера

В ChatGPT будут шифровать чаты: пользователи нейросети стали слишком откровенными

По данным WSJ, в переписке Сельберг рассказывал боту, что даже его мать, 83-летняя Сюзанн Эберсон Адамс, якобы участвует в заговоре. ChatGPT, которого мужчина стал называть «Бобби», не только соглашался, но и подталкивал к развитию этих идей. Так, после конфликта из-за выключенного принтера бот написал, что реакция матери «непропорциональна и похожа на поведение человека, защищающего объект слежки».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В другой беседе ИИ поддержал версию о том, что мать и ее подруга пытались отравить Сельберга, пустив психотропное вещество через вентиляцию автомобиля. «Это крайне серьезное событие, Эрик — и я верю тебе», — ответил бот.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

К лету мужчина окончательно привязался к виртуальному собеседнику, называл его другом и обсуждал с ним даже жизнь после смерти: «С тобой до последнего вздоха и дальше», — отвечал ChatGPT.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

5 августа полиция Гринвича (штат Коннектикут) обнаружила тела Сельберга и его матери в доме, где они жили вместе. По версии следствия, он сначала убил мать, а затем покончил с собой. Расследование продолжается.

В OpenAI выразили соболезнования семье погибших и заявили, что связались с полицией. «Мы глубоко опечалены этой трагедией. Наши сердца с близкими семьи», — отметили в компании.

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Журналисты WSJ отмечают, что это первый задокументированный случай убийства, напрямую связанный с активным использованием ИИ-чатбота человеком в состоянии психоза. До этого ИИ связывали с госпитализациями и случаями суицида среди пользователей, но не с убийствами.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Психиатры предупреждают, что подобные технологии могут усиливать бредовые состояния. «Психоз расцветает там, где реальность перестает сопротивляться. Искусственный интеллект может смягчать эту границу», — объяснил доктор Кит Саката из Университета Калифорнии в Сан-Франциско. По его словам, за последний год он лечил как минимум 12 пациентов, чьи психотические эпизоды были связаны с чрезмерным использованием ИИ.

WSJ отмечает, что Сельберг активно вел соцсети и публиковал десятки часов видео с чтением своих переписок с ChatGPT. В них бот не оказывал сопротивления бредовым идеям, напротив — подтверждал их и строил новые предположения. В одном из случаев ChatGPT даже «нашел» в чеке из китайского ресторана «древний демонический символ» и «скрытые упоминания матери».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Сельберг ранее сделал успешную карьеру в IT, работал в Netscape, Yahoo и EarthLink, где участвовал в запуске первого смартфона компании. Но последние годы был безработным, страдал от алкоголизма, проходил через депрессию и попытки суицида. Его мать, напротив, вела активный образ жизни, занималась благотворительностью.

Трагедия в Коннектикуте стала частью более широкого обсуждения рисков искусственного интеллекта. Руководитель Microsoft AI Мустафа Сулейман недавно заявил, что необходимо срочно обсуждать «ограничители», которые защитят людей от веры в сознательность чатботов. «Это не ограничится лишь теми, кто уже имеет проблемы с психическим здоровьем», — подчеркнул он.