18+

На OpenAI снова подали в суд: пользователь ChatGPT убил свою мать и покончил с собой

Это уже не первый подобный случай.
Антон Попов
Антон Попов
На OpenAI снова подали в суд: пользователь ChatGPT убил свою мать и покончил с собой
Freepik

Против OpenAI подали еще один иск — на этот раз семья погибшей пенсионерки обвиняет компанию в убийстве по неосторожности. Об этом сообщает The Wall Street Journal.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Речь идет о 56-летнем американце Стейне-Эрике Солберге, страдавшем психическим расстройством. Он долгое время общался с ChatGPT, находясь в состоянии бреда, и был убежден, что за ним следят. В числе «соучастников заговора» он называл даже свою 83-летнюю мать — Сюзанну Адамс.

Freepik

Ее внук рассказал, что Солберг на протяжении нескольких месяцев делился с ИИ своими параноидальными идеями, а ChatGPT, по его словам, поддерживал его в каждом подозрении. В итоге мужчина убил мать, а затем покончил с собой. Сын Солберга, подавший иск, утверждает, что OpenAI создала «дефектный продукт» и должна нести ответственность за трагедию.

Ранее против компании уже подали как минимум семь подобных исков, связанных с тем, что пользователи после общения с чат-ботом совершили суицид или нанесли себе вред: четверо погибли, трое получили травмы.

Компания OpenAI отслеживает подобные трагедии, вводит ограничения, системы защиты, но пока это не дает никаких значимых результатов. ИИ все равно можно заставить говорить на спорные темы, рассказывать то, чего не стоило бы.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Другая проблема заключается в том, что в желании создать цепляющий продукт — друга, который всегда выслушает и поддержит, разработчики по максимуму лишили ИИ критического отношения к сообщениям пользователей. Даже если человек пишет о чем-то опасном, глупом и абсурдном, искусственный интеллект поддержит, подтвердит и накидает мыслей, способных разогнать паранойю и чувство собственной важности до предела.

При этом менять характер и делать ChatGPT более холодным и критически настроенным разработчики не могут. Они уже попытались, выпустив ChatGPT 5, но пользователи обрушились на них с такой критикой, что пришлось в спешке модернизировать чат-бота, возвращать возможность использовать прошлую, более человечную версию.

Так что сейчас разработчики из OpenAI стоят перед сложной дилеммой: как защитить психически нестабильных людей, но при этом сохранить аудиторию сервиса? Простого решения нет, поэтому ИИ-компании начали инвестировать в системы защиты. Сработает ли это — покажет время, но пока результат сложно назвать впечатляющим.