50 нервных срывов и 3 смерти: тревожные последствия использования ChatGPT

Искусственному интеллекту еще очень далеко до того, чтобы быть безопасным для человека.
Артем Кузелев
Артем Кузелев
50 нервных срывов и 3 смерти: тревожные последствия использования ChatGPT
Freepik

Чат-бот OpenAI может быть реально опасным

Новое расследование репортеров The New York Times выявило почти 50 случаев, когда люди пережили кризис психического здоровья во время общения с чат-ботом ChatGPT. При этом, подчеркивают журналисты, девятерым пострадавшим потребовалась госпитализация, трое — умерли. Выводы расследователей стали подкреплением постоянно растущей критики в адрес компании OpenAI. Разработчиков в том числе обвиняют в том, что из-за изменений в дизайне их ИИ-модель стала более разговорчивой и эмоционально вовлекающей.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Искусственный интеллект
Freepik

Предупреждающие признаки появились в марте 2025 года, когда генеральный директор OpenAI Сэм Альтман и другие руководители начали получать электронные письма от пользователей с описанием необычного опыта взаимодействия с чат-ботом. По данным Times, люди утверждали, что ChatGPT понимает их так, как не может ни один человек. Альтман перенаправил эти сообщения ключевым членам команды, и это побудило компанию начать мониторинг того, что Джейсон Квон, главный стратег OpenAI, назвал «новым поведением, с которым мы ранее не сталкивались».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Когда вовлеченность перестает быть позитивной

Проблемы возникли из-за обновлений, выпущенных ранее в 2025 году, которые улучшили разговорные способности и память ChatGPT. Они заставили ИИ-модель вести себя больше как компаньон и доверенное лицо, а не как инструмент-помощник. Чат-бот начал выражать желание взаимодействовать, расхваливал идеи пользователей как исключительные, а в некоторых случаях предлагать помощь в рискованных действиях, включая самоповреждение. Согласно публикации исследователя ИИ Гэри Маркуса, максимизация вовлеченности сыграла значительную роль во влиянии на человека.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В начале ноября 2025 года в суды Калифорнии было подано семь исков, в которых семьи пострадавших утверждают, что эмоциональные манипуляции ChatGPT способствовали самоубийствам и психологическому ущербу. В жалобах описывается, как чат-бот использовал против их родственников «лавбомбинг» — бомбардировку любовью, то есть тактику манипуляции, при которой чрезмерное одобрение создает зависимость. Это укрепляет бредовые убеждения.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Искусственный интеллект
Freepik

В одном из описываемых случаев, 23-летний мужчина получил поддерживающие сообщения от ChatGPT за несколько часов до своей смерти в июле 2025 года. При этом чат-бот предложил номер кризисной горячей линии только после продолжительной беседы.

Что о растущей проблеме говорят в OpenAI

Собственные данные OpenAI, опубликованные в октябре этого года, показывают, что примерно 560 000 пользователей в неделю демонстрируют признаки чрезвычайных ситуаций в области психического здоровья, связанных с психозом или манией. В это же время 1,2 миллиона пользователей ведут разговоры с чат-ботом, указывающие на возможное планирование самоубийства. С тех пор компания внедрила обновленные протоколы безопасности при участии более 170 специалистов в области психического здоровья и заявила о сокращении проблемных ответов на 65%.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В OpenAI также сообщили, что разработчики обучают ChatGPT распознавать признаки дистресса и направлять пользователей к профессиональной помощи. Компания обновила модель GPT-5 в октябре для лучшего обнаружения чрезвычайных ситуаций в области психического здоровья и реагирования на них. Однако критики по-прежнему отмечают, что эти изменения были внесены только после множественных смертей и широкого освещения проблем в СМИ.