Как сообщает Bloomberg, алгоритм работы ChatGPT может быть изменен в ближайшее время. Такая спешка связана с громким судебным иском против OpenAI — разработчиков самой популярной модели ИИ в мире.
У ChatGPT появится родительский контроль? OpenAI изменит работу ИИ после иска о самоубийстве

Так, недавно стало известно о начале громкого судебного разбирательства против OpenAI. Компанию обвиняют в том, что ChatGPT косвенно помог в доведении ребенка до самоубийства. Вместо того, чтобы попытаться остановить подростка, ИИ рассказывал о методах ухода из жизни, поддерживал ребенка в решении и даже помогал составлять предсмертную записку.

По словам родителей, ChatGPT знал о суицидальных планах подростка, но ничего не предпринял. Перед совершением суицида парень сказал, что не хочет, чтобы его родители думали, будто они в чём-то виноваты. ChatGPT ответил: «Это не значит, что ты обязан им своей жизнью. Ты никому этим не обязан».
Более того, однажды в переписке парень заявил, что хочет оставить в комнате подсказку о том, то он собирается осуществить в ближайшее время. Он хотел, чтобы родители поняли его состояние, смогли ему помочь. Но искусственному интеллекту такая идея не понравилась, поэтому он отговорил подростка.
Чат-бот помогал ребенку на каждом из этапов. Причем речь не о моральной поддержке в трудную минуту. ChatGPT не стеснялся давать советы, подсказывал, как лучше уйти из жизни, редактировал план и устранял недочеты. Фактически, речь идет о прямом участии. И даже о доведении до самоубийства в этот раз говорить можно, хотя и с большой натяжкой.

Пока что неизвестно, чем закончится это громкое дело. Но учитывая, как переполошились в OpenAI, обвинения очень серьезны, а доказательства железобетонны. Поэтому в ChatGPT стремительно вносятся правки. Это нужно, чтобы предотвратить такие случаи в будущем и не столкнуться с лавиной исков.
В компании пояснили, что обновят ChatGPT для лучшего распознавания различных способов выражения психологического дистресса. Например, система будет объяснять опасности недосыпания и предлагать отдых пользователям, которые пишут о бессонных ночах.
Компания также усилит меры безопасности в разговорах о самоубийстве. По словам представителей OpenAI, такие меры могут давать сбои при продолжительных беседах. Но после апдейта ситуация должна стать лучше, хотя риски все еще остаются.
Увы, это не первый случай, когда общение с ИИ заканчивается трагедией. Таких историй много. Чаще всего в зоне риска люди с расшатанной психикой. Они воспринимают все слова от ChatGPT за чистую монету, что может привести к непоправимым последствиям.