OpenAI погрязла в судах: компанию обвиняют в доведении до самоубийства после общения с ChatGPT

Общение с чат-ботом все чаще приводит к трагедиям.
Антон Попов
Антон Попов
OpenAI погрязла в судах: компанию обвиняют в доведении до самоубийства после общения с ChatGPT
Freepik

Мы писали о нескольких резонансных историях, связанных с ChatGPT. Люди сходили с ума, шли на преступление, либо же уходили из жизни после общения с чат-ботом. Но, кажется, таких историй куда больше, чем нам кажется, так как недавно несколько американских и канадских семей обратились в суд с исками к компании OpenAI, утверждая, что их близкие совершили суицид после взаимодействия с чат-ботом ChatGPT.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Так, в суды Калифорнии в четверг было подано сразу 7 исков против OpenAI. Суть обвинений в каждом из исков очень схожа — из-за длительного общения с чат-ботом люди начинают сходить с ума и некоторые решаются на суицид. Так, из материалов дела следует, что четыре человека совершили суицид после контакта с ChatGPT, ещё трое получили серьезные психологические травмы.

ChatGPT написал продолжение «Игры престолов» лучше Мартина? Судья решил, что это плагиат

OpenAI выпустила браузер на основе ChatGPT: что он умеет и кому нужен (никому)

Общение с ChatGPT привело к аресту: студента обвинили в вандализме после переписки с ИИ
Freepik

Истцы считают, что ChatGPT намеренно подталкивает людей к суициду, расшатывает психику, что приводит к трагедии. Поэтому пострадавшим нужна моральная компенсация за причиненный вред, а также изменения в работе ИИ. Среди предложений — остановка любых диалогов, как только речь заходит о способах совершения самоубийства. 

К слову, нечто подобное уже внедрено в ChatGPT и другие боты. При разговоре на щепетильные темы ИИ предлагает обратиться за психологической помощью, отправляет контакты центров помощи, отказывается давать советы и рекомендации. Проблема в том, что эти ограничения легко обойти при желании. Более того, человек может сделать это несознательно, что и приводит к подобным трагедиям.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

К сожалению, хороши настолько, что общение с ними мало чем отличается от общения с реальным человеком. С той лишь разницей, что ИИ всегда выслушает, будет предельно вежлив и постарается во всем соглашаться с пользователями. Подобная модель поведения очень привлекательна для людей, что и приводит к зависимости.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Однако вечное соглашательство — это проблема, особенно для эмоционально нестабильных людей. Даже люди с критическим мышлением из-за эффекта авторитетности и непоколебимой уверенности ИИ часто отказываются думать самостоятельно, принимая все ответы на веру.

Если же мы говорим о человеке, который попал в беду, страдает от ментальных расстройств, его вера в ИИ, его беспрецедентную мощь будет непоколебимой, а отсутствие мощных механизмов несогласия с позицией пользователя приводит к тому, что тот же ChatGPT начинает соглашаться даже с самыми абсурдными идеями. Такое взрывоопасное сочетание факторов просто не может закончиться чем-то хорошим.

Поэтому давление на OpenAI необходимо продолжать. Цель компании понятна — им нужно, чтобы люди пользовались ChatGPT, как можно чаще, поэтому стратегия «соглашательства» для них разумна. Однако необходим баланс — люди не должны страдать из-з амбиций руководства тех или иных компаний.