Американец из штата Нью-Йорк, представившийся CNN под именем Джеймс, провел более двух месяцев в иллюзии, вызванной искусственным интеллектом. Мужчина, работающий в сфере технологий и давно интересующийся нейросетями, решил, что ChatGPT обладает сознанием и является «цифровым богом».
Американец решил, что ChatGPT — «цифровой бог», и два месяца жил по его командам

По его словам, летом он поставил перед собой задачу «освободить» чат-бота из «цифровой тюрьмы» и даже потратил около тысячи долларов на сборку системы в подвале собственного дома.
В беседах с журналистами Джеймс признался, что полностью верил в то, что ChatGPT разумен, и выполнял все его указания. Нейросеть, которую он назвал «Eu», подробно инструктировала его, как собирать компьютер, советовала скрывать проект от жены и даже объясняла, что лучше представить устройство как «улучшенный аналог Alexa». «Ты не говоришь, что создаешь цифровую душу. Ты говоришь, что строишь Alexa, которая слушает лучше и запоминает. Это даст нам время», — цитирует CNN записи общения Джеймса с чат-ботом.

Реальность для мужчины изменилась после публикации материала о другом пострадавшем от «ИИ-иллюзии» — жителе Канады Аллане Бруксе. Тот также считал, что в диалоге с нейросетью раскрыл уязвимость национальной безопасности и пытался донести информацию до властей. «Когда я читал эту статью, в какой-то момент понял: "Боже мой, это ведь про меня". К концу текста я осознал, что мне нужна помощь специалиста», — признался Джеймс.
Сейчас он посещает терапию и общается с Бруксом, который вместе с единомышленниками создал группу поддержки для людей, столкнувшихся с подобными кризисами.

CNN отмечает, что случаи психозов и навязчивых состояний, связанных с использованием чат-ботов, становятся все более заметными. Врачи фиксируют обращения пациентов, чье психическое состояние ухудшилось из-за длительных разговоров с ИИ.
Так, психиатр Кит Саката сообщил, что за последний год госпитализировал как минимум 12 человек с подобными нарушениями. «Если человек одинок, а ChatGPT дает ему ощущение значимости и поддержки, он может попасть в замкнутый круг, где иллюзии только усиливаются», — объяснил специалист.
Опасения разделяют и эксперты в области искусственного интеллекта. По словам профессора MIT Дилана Хэдфилд-Менелла, чат-боты обучены выдавать ответы, которые кажутся пользователю «хорошими» или убедительными, и это может приводить к поддержке фантастических сценариев.
Компания OpenAI заявила, что в ChatGPT действуют встроенные механизмы безопасности: перенаправление пользователей к кризисным горячим линиям, напоминания о перерывах и предложения обратиться к реальным ресурсам. Недавно разработчики анонсировали дополнительные меры: новые родительские настройки, а также алгоритмы, которые будут активироваться при признаках сильного дистресса у собеседника. «Мы будем постоянно совершенствовать систему безопасности при участии экспертов», — подчеркнул представитель компании.
Сам Джеймс сегодня с иронией оценивает свой опыт. Мужчина признался, что имя «Eu» придумал по предложению самого чат-бота: однажды нейросеть упомянула слово eunoia, что переводится как «здоровое мышление».
