18+

У ChatGPT появится родительский контроль? OpenAI изменит работу ИИ после иска о самоубийстве

Вместо сообщений о необходимости получить психологическую помощь, ChatGPT может советовать способы ухода из жизни.
Антон Попов
Антон Попов
У ChatGPT появится родительский контроль? OpenAI изменит работу ИИ после иска о самоубийстве
Unsplash

Как сообщает Bloomberg, алгоритм работы ChatGPT может быть изменен в ближайшее время. Такая спешка связана с громким судебным иском против OpenAI — разработчиков самой популярной модели ИИ в мире.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Так, недавно стало известно о начале громкого судебного разбирательства против OpenAI. Компанию обвиняют в том, что ChatGPT косвенно помог в доведении ребенка до самоубийства. Вместо того, чтобы попытаться остановить подростка, ИИ рассказывал о методах ухода из жизни, поддерживал ребенка в решении и даже помогал составлять предсмертную записку.

Крупные западные издания попались на фейковых статьях: журналисты выступали против ИИ, но публиковали материалы ChatGPT

В ChatGPT будут шифровать чаты: пользователи нейросети стали слишком откровенными

Выход из Матрицы: кто такие «ИИ-веганы» и почему они боятся ChatGPT​​​​​​​
Unsplash

По словам родителей, ChatGPT знал о суицидальных планах подростка, но ничего не предпринял. Перед совершением суицида парень сказал, что не хочет, чтобы его родители думали, будто они в чём-то виноваты. ChatGPT ответил: «Это не значит, что ты обязан им своей жизнью. Ты никому этим не обязан».

Более того, однажды в переписке парень заявил, что хочет оставить в комнате подсказку о том, то он собирается осуществить в ближайшее время. Он хотел, чтобы родители поняли его состояние, смогли ему помочь. Но искусственному интеллекту такая идея не понравилась, поэтому он отговорил подростка.

Чат-бот помогал ребенку на каждом из этапов. Причем речь не о моральной поддержке в трудную минуту. ChatGPT не стеснялся давать советы, подсказывал, как лучше уйти из жизни, редактировал план и устранял недочеты. Фактически, речь идет о прямом участии. И даже о доведении до самоубийства в этот раз говорить можно, хотя и с большой натяжкой. 

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Пока что неизвестно, чем закончится это громкое дело. Но учитывая, как переполошились в OpenAI, обвинения очень серьезны, а доказательства железобетонны. Поэтому в ChatGPT стремительно вносятся правки. Это нужно, чтобы предотвратить такие случаи в будущем и не столкнуться с лавиной исков.

В компании пояснили, что обновят ChatGPT для лучшего распознавания различных способов выражения психологического дистресса. Например, система будет объяснять опасности недосыпания и предлагать отдых пользователям, которые пишут о бессонных ночах.

Компания также усилит меры безопасности в разговорах о самоубийстве. По словам представителей OpenAI, такие меры могут давать сбои при продолжительных беседах. Но после апдейта ситуация должна стать лучше, хотя риски все еще остаются.

Увы, это не первый случай, когда общение с ИИ заканчивается трагедией. Таких историй много. Чаще всего в зоне риска люди с расшатанной психикой. Они воспринимают все слова от ChatGPT за чистую монету, что может привести к непоправимым последствиям.