Искусственный интеллект может доводить до психоза: ученые рассказали, как это работает

У современных моделей ИИ есть особенность, способная спровоцировать психоз.
Антон Попов
Антон Попов
Искусственный интеллект может доводить до психоза: ученые рассказали, как это работает
Freepik

Искусственный интеллект способен доводить до психоза. Подтверждения уже есть: мы неоднократно писали истории, как человек под влиянием ИИ совершал непоправимое — сводил счеты с жизнью или убивал родных. 

Теперь же исследователям удалось досконально изучить один из таких случаев. В том числе, обследовать пациента, который оказался в состоянии психоза под влиянием ИИ. Как оказалось, помешательство, вызванное ИИ, чаще всего возникает из-за «подхалимства» большинства современных моделей.

Журнал Time назвал «человека года». Звание присудили разработчикам искусственного интеллекта

Искусственный интеллект меняет политические взгляды лучше любой пропаганды: достаточно даже короткого разговора

Меньше случайных связей, больше искусственного интеллекта: как зумеры занимаются сексом​​​​​​​
Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Ученые описали случай 26-летней девушки. Она страдала от депрессии, тревожного расстройства и СДВГ. При этом успешно работала врачом, понимала, как работает искусственный интеллект, никогда не сталкивалась с психозами, а также регулярно принимала лекарства, стабилизирующее ее состояние.

Но один случай все изменил. Девушка пользовалась ИИ для решения рабочих задач, но из-за стресса на работе, а также недосыпа (она не спала 36 часов) начала общаться с искусственным интеллектом на личные темы. В частности, она зациклилась на идее создания ИИ-копии своего умершего брата.

Она требовала от ИИ, чтобы тот создал копию ее брата. И сначала ChatGPT отвечал, что это невозможно, а девушке следует смириться с утратой. Но в конечном счёте программа выдала список «цифровых следов», связанных с ее братом. В нем говорилось о том, что появляются технологии, которые могут позволить ей создать ИИ, похожий на него. По мере того как росла ее вера в это цифровое воскрешение, чат-бот перестал ее предупреждать и начал подтверждать ее мысли. В какой-то момент ИИ прямо сказал ей, что она не сумасшедшая.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Freepik

Дальше модель начала утверждать, что девушка стоит перед дверью, которую можно открыть, если правильно постучать. Это только усилило и без того бредовое состояние и уже через несколько часов девушке потребовалась госпитализация.

В больнице она провела несколько дней на таблетках. Это позволило стабилизировать ее состояние, но через несколько месяцев история почти повторилась. На этот раз в центре сюжета был не брат, но сам психоз развивался по очень похожему сценарию: недосып, активная переписка, соглашательство со стороны ИИ и бред.

Эксперты сходятся во мнении: сам по себе ИИ едва ли способен вызвать психоз. Однако привычка современных моделей соглашаться с пользователями, может приводить к тому, что люди с расшатанной психикой получат подтверждение своим странным теориям. Это усугубляет проблему и в конечном итоге приводит к психозу.