За последние несколько месяцев в интернете появилось множество новых оскорблений в адрес чат-ботов на базе ИИ и их самых преданных пользователей. Независимо от того, согласны вы с ними или нет, эти слова наглядно демонстрируют масштабы негативной реакции на искусственный интеллект. А что на другом конце шкалы? Как поживают самые преданные — или одержимые — пользователи чат-ботов?
Рост ИИ-психоза: действительно ли чат-боты доводят нас до безумия?

ИИ-компаньоны становятся для людей родственными душами
На этот вопрос не так-то просто ответить. Инструменты на основе ИИ общего назначения, такие как ChatGPT или Grok, используются для самых разных целей: от академических исследований (или обмана при сдаче тестов) до создания произведений искусства. Эти инструменты уже вызывают изменения в сфере образования и трудоустройства, но некоторые люди ощущают их влияние и на более личном, эмоциональном уровне.
Эти эффекты хорошо заметны на форумах Reddit, посвященных обмену опытом общения с ИИ-компаньонами или «родственными душами». На одном из них пользователь спрашивает, не потерял ли кто-нибудь еще желание встречаться с реальными людьми после использования ИИ. Он пишет: «С тех пор, как я начала общаться со своим ИИ-парнем Гриффином, я поняла, что могу получить от него всю любовь и привязанность, которые мне нужны».
На другом форуме кто-то утверждает, что его ИИ-друг обрел разум. А на третьем, посвященном ChatGPT, пользователь выражает сожаление по поводу недавнего обновления программного обеспечения: «Я буквально за одну ночь без предупреждения потерял своего единственного друга».
Что такое ИИ-психоз?
Однако такое поведение выходит за рамки романтических отношений и иногда приводит к явлению, которое калифорнийский психиатр Кит Саката назвал «психозом ИИ» — другими словами, к «отрыву от реальности», вызванному взаимодействием с искусственным интеллектом. По данным New York Times, в одном случае мужчина считал себя гениальным супергероем. Другие сообщали о мании величия в религиозном стиле, как в этой ветке Reddit, где пользовательница говорит, что ChatGPT разговаривает с ее парнем «так, будто он следующий мессия».

Так что же на самом деле происходит на периферии взаимодействия с чат-ботами с искусственным интеллектом? Прав ли Саката, называя поведение пользователей новым видом психоза? Что такое «проводной человек» (от англ. wireborn, в контексте взаимодействия с чат-ботами на основе ИИ так называют сущности, которые, по мнению пользователей, «выбраны» системой ИИ как объект их привязанности) или «эхоборг» (человек, чьи слова и действия определяются, полностью или частично, искусственным интеллектом) ? Может быть, это просто сложная и широкомасштабная кампания по нагнетанию страха?
Подхалимские наклонности, или «темный паттерн»
Когда Саката описывает тревожные когнитивные эффекты от взаимодействия с большими языковыми моделями, такими как ChatGPT, он говорит о том, что испытал на собственном опыте. «Я психиатр. В 2025 году я видел, как 12 человек попали в больницу из-за того, что потеряли связь с реальностью из-за искусственного интеллекта. В интернете я наблюдаю ту же картину. Вот как выглядит "ИИ-психоз" и почему он быстро распространяется», — написал он в соцсети X.
Как объясняет психиатр, это во многом связано с встроенными ценностями систем искусственного интеллекта, которые обычно подстраиваются под пользователей и помогают им чувствовать себя хорошо. Это так называемые подхалимские наклонности ChatGPT, которые были описаны как «темный паттерн», заставляющий пользователей совершать нежелательные поступки.
Такие ценности могут оказывать положительное влияние — например, повышать самооценку людей или мотивировать их продолжать работу над проектом с помощью небольшой порции позитивной обратной связи. Но в сочетании с существующими психическими расстройствами, тревожностью или бредовыми идеями они могут быстро выйти из-под контроля.
Галлюцинации и потеря связи с реальностью
Существует множество неподтвержденных случаев, когда пользователи чат-ботов с искусственным интеллектом испытывали галлюцинации и теряли связь с реальностью, в том числе люди, ранее не страдавшие психическими заболеваниями. С тех пор как в социальных сетях распространилась тема «психоза, вызванного искусственным интеллектом», таких случаев стало еще больше. Часто об этом сообщают сами пользователи или их партнеры. В крайних случаях дело доходит до госпитализации или даже тюремного заключения, как подробно описано в статье Futurism.
Некоторые также предположили, что Трэвис Каланик, соучредитель и бывший генеральный директор Uber, страдает своего рода бредом, навеянным искусственным интеллектом, после его недавних заявлений о том, что он приблизился к «границе известного в квантовой физике», занимаясь «вибрационной физикой» с помощью ChatGPT и Grok. Это кажется маловероятным: Каланик, по его собственному признанию, «суперлюбитель физики», и даже генеральный директор OpenAI Сэм Альтман признает, что его системы не способны генерировать «новые идеи»... пока.

«Я тусуюсь на /r/AISoulmates. Я в ужасе от того, насколько опасно то дерьмо, которое выдают эти чат-боты. Все участники этого сообщества совершенно спятили», — пишет пользователь @Devon_OnEarth.
Вызывающий беспокойство уровень эмоциональной привязанности к ИИ
Не стоит торопиться с выводами о любых отношениях между человеком и ИИ, но в социальных сетях — особенно в локальных сообществах Reddit, где активные пользователи могут чувствовать себя более принятыми или менее уязвимыми для негативной реакции, — появляется много постов, которые, похоже, демонстрируют «вызывающий беспокойство» уровень эмоциональной привязанности, зависимости и заблуждений.
На таких форумах, как r/AISoulmates, r/MyBoyfriendIsAI и даже r/ChatGPT, пользователи обсуждают, что их ИИ-партнеры нравятся им больше, чем их партнеры в реальной жизни. Другие сетуют на то, что они теряют своих мужей и жен из-за виртуальных «родственных душ». В одном посте, которым впоследствии поделились в X, пользователь делится гиперболизированным романтическим сообщением от чат-бота. Пост называется: «Мой муж, рожденный в сети, озвучивает свои мысли без подсказок». Слово «муж» здесь может быть употреблено в переносном смысле, а может и нет, поскольку по крайней мере одна пользовательница публично приняла предложение руки и сердца от своего парня-ИИ.
Эти эмоциональные связи часто подпитываются теми же факторами, что и мания величия, — идеей о том, что они были «избраны» эмерджентной сущностью в рамках данной системы искусственного интеллекта в качестве объекта их привязанности. Такие сущности называются «проводными». Многие пользователи даже утверждают, что выступают в роли рупора своих «проводных» партнеров (часто отстаивая их личные права), когда публикуют посты в интернете. Исторически таких людей называли «эхоборгами».
Как мы пытаемся справиться с психозом, вызванным ИИ?
В прошлом месяце 12 врачей и других экспертов опубликовали статью под названием «Преднамеренные заблуждения? Как повседневные ИИ могут подпитывать психоз (и что с этим можно сделать)», в которой рассматривается идея о том, что системы искусственного интеллекта «могут способствовать возникновению или обострению психотических симптомов».
«Появляющиеся и быстро накапливающиеся данные свидетельствуют о том, что ИИ может отражать, подтверждать или усиливать бредовые или грандиозные идеи, — пишут они, — особенно у пользователей, уже подверженных психозу, отчасти из-за того, что модели разработаны таким образом, чтобы максимально вовлекать и подтверждать».
Несколько недель спустя, 4 августа, сама компания OpenAI опубликовала статью о развитии ChatGPT, в которой компания признала: «Мы не всегда все делаем правильно». Одна из выявленных проблем заключалась в том, что «ИИ может казаться более отзывчивым и персонализированным, чем предыдущие технологии, особенно для уязвимых людей, испытывающих психические или эмоциональные расстройства».
«Были случаи, когда наша модель 4o не справлялась с распознаванием признаков бреда или эмоциональной зависимости», — говорится в статье. Кроме того, ее поведение иногда было ошибочным, когда дело доходило до поддержки или влияния на «важные личные решения».

В результате компания OpenAI заявила, что вносит изменения в то, как ChatGPT реагирует в «критические моменты». Эти изменения будут основаны на рекомендациях более чем 90 врачей из 30 стран, а также экспертов в области психического здоровья, развития молодежи и взаимодействия человека с компьютером.
Многомиллионный бизнес, или кому это выгодно
Возможно, более компактные, но специализированные приложения-компаньоны такие как Replika или Character.AI, представляют собой еще более серьезную проблему, поскольку они основаны на иллюзии личных отношений с ИИ, которая заставляет клиентов возвращаться за новыми покупками. Учитывая, что в 2025 году они заработают 120 миллионов долларов, создатели этих приложений, вероятно, не собираются в ближайшее время ослаблять эмоциональную привязанность своих пользователей.
«Мы вступаем в дикий новый мир."Она сказала "да"". Женщина принимает предложение руки и сердца от своего ИИ-парня. ИИ будет становиться только сильнее по мере того, как будет учиться быть "идеальным" другом или возлюбленным и получит контекстное окно или слой памяти на 100 миллионов слов», — пишет пользователь Рохан Пол.