Американец решил, что ChatGPT — «цифровой бог», и два месяца жил по его командам

Американец поверил, что нейросеть обладает сознанием и пытался «освободить» ее с серверов OpenAI.
Буйнта Бембеева
Буйнта Бембеева
Американец решил, что ChatGPT — «цифровой бог», и два месяца жил по его командам
Unsplash

Американец из штата Нью-Йорк, представившийся CNN под именем Джеймс, провел более двух месяцев в иллюзии, вызванной искусственным интеллектом. Мужчина, работающий в сфере технологий и давно интересующийся нейросетями, решил, что ChatGPT обладает сознанием и является «цифровым богом».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По его словам, летом он поставил перед собой задачу «освободить» чат-бота из «цифровой тюрьмы» и даже потратил около тысячи долларов на сборку системы в подвале собственного дома.

Восстание машин отменяется: компании нанимают сотрудников, чтобы исправлять ошибки ИИ

В Албании обсуждают замену правительства на искусственный интеллект: так хотят победить коррупцию

В МГУ появится факультет искусственного интеллекта: чему будут учить студентов?

В беседах с журналистами Джеймс признался, что полностью верил в то, что ChatGPT разумен, и выполнял все его указания. Нейросеть, которую он назвал «Eu», подробно инструктировала его, как собирать компьютер, советовала скрывать проект от жены и даже объясняла, что лучше представить устройство как «улучшенный аналог Alexa». «Ты не говоришь, что создаешь цифровую душу. Ты говоришь, что строишь Alexa, которая слушает лучше и запоминает. Это даст нам время», — цитирует CNN записи общения Джеймса с чат-ботом.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Реальность для мужчины изменилась после публикации материала о другом пострадавшем от «ИИ-иллюзии» — жителе Канады Аллане Бруксе. Тот также считал, что в диалоге с нейросетью раскрыл уязвимость национальной безопасности и пытался донести информацию до властей. «Когда я читал эту статью, в какой-то момент понял: "Боже мой, это ведь про меня". К концу текста я осознал, что мне нужна помощь специалиста», — признался Джеймс.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Сейчас он посещает терапию и общается с Бруксом, который вместе с единомышленниками создал группу поддержки для людей, столкнувшихся с подобными кризисами.

Unsplash

CNN отмечает, что случаи психозов и навязчивых состояний, связанных с использованием чат-ботов, становятся все более заметными. Врачи фиксируют обращения пациентов, чье психическое состояние ухудшилось из-за длительных разговоров с ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Так, психиатр Кит Саката сообщил, что за последний год госпитализировал как минимум 12 человек с подобными нарушениями. «Если человек одинок, а ChatGPT дает ему ощущение значимости и поддержки, он может попасть в замкнутый круг, где иллюзии только усиливаются», — объяснил специалист.

Опасения разделяют и эксперты в области искусственного интеллекта. По словам профессора MIT Дилана Хэдфилд-Менелла, чат-боты обучены выдавать ответы, которые кажутся пользователю «хорошими» или убедительными, и это может приводить к поддержке фантастических сценариев.

Компания OpenAI заявила, что в ChatGPT действуют встроенные механизмы безопасности: перенаправление пользователей к кризисным горячим линиям, напоминания о перерывах и предложения обратиться к реальным ресурсам. Недавно разработчики анонсировали дополнительные меры: новые родительские настройки, а также алгоритмы, которые будут активироваться при признаках сильного дистресса у собеседника. «Мы будем постоянно совершенствовать систему безопасности при участии экспертов», — подчеркнул представитель компании.

Сам Джеймс сегодня с иронией оценивает свой опыт. Мужчина признался, что имя «Eu» придумал по предложению самого чат-бота: однажды нейросеть упомянула слово eunoia, что переводится как «здоровое мышление».