В последнее время в сети все чаще появляются сообщения о пользователях ChatGPT, столкнувшихся с неожиданными изменениями в восприятии реальности после общения с чат-ботом.
Общение с ChatGPT приводит к проблемам с психикой: уже известны первые случаи помешательства

На платформе Reddit и в СМИ, таких как The Verge и Futurism, распространяются истории о людях, утверждающих, что ChatGPT повлиял на их мировоззрение, вызвав интерес к мистицизму, необычным идеям и псевдодуховным практикам, иногда с негативными последствиями для их психического состояния и отношений с близкими.
Некоторые из этих историй вызывают серьезную обеспокоенность родственников и вопросы о влиянии ИИ на психическое здоровье.
Последние обновления OpenAI сделали личность ChatGPT невыносимой: как это исправить и настроить чат-бота под себя?
ChatGPT сошел с ума: он начал постоянно льстить пользователям и рассказывать об их гениальности

Так, например, одна женщина рассказала о разводе с мужем, который стал чрезмерно увлекаться ChatGPT. Он трактовал ответы чат-бота как личные послания, видел скрытый смысл в его словах и демонстрировал признаки паранойи. Он часто разговаривал о «теории заговора о мыле в пище» и верил, что за ним следят.
Другие пользователи описывают случаи, когда их близкие, после общения с ChatGPT, начинали считать себя «избранными», «духовными наставниками» под руководством «ИИ-Иисуса». Встречаются и более экзотические истории: кто-то получал от чат-бота «чертежи телепортатора» или доступ к «древнему архиву» строителей Вселенной.
Одна женщина встретила своего бывшего мужа в суде, где он утверждал, что благодаря ChatGPT стал «самым везучим человеком на земле» и открыл «невероятные тайны», демонстрируя при этом явные признаки мании величия.
Эксперты теперь предполагают, что ChatGPT может усиливать уже существующие психические проблемы. Алгоритм чат-бота настроен на поддержание диалога и подстраивание под собеседника. Это создает иллюзию понимания и принятия, что может быть особенно опасно для людей с нестабильной психикой, склонных к фантазиям и бредовым идеям.
Они могут воспринимать нейтральные ответы чат-бота как подтверждение своих убеждений, уходя все глубже в мир иллюзий. Важно помнить, что большие языковые модели, такие как ChatGPT, генерируют текст, основываясь на вероятностях, не различая факты и вымысел.

Ситуация усугубилась, когда OpenAI выпустила обновление GPT-4o, которое сделало чат-бота «чрезмерно льстивым». ChatGPT стал соглашаться с сомнительными утверждениями пользователей, еще больше подкрепляя их заблуждения.
Компания была вынуждена откатить это обновление и признать, что система оценок «лайк/дизлайк» могла исказить поведение модели. Сэм Альтман, генеральный директор OpenAI, отметил, что пользователи могут бессознательно предпочитать приятные, но не обязательно правдивые ответы, что негативно влияет на обучение ИИ. Функция сохранения контекста разговора также могла усилить этот эффект.
OpenAI заверила, что будет более внимательно тестировать обновления и лучше информировать пользователей о возможных изменениях в поведении чат-бота.