Семья ребенка, пострадавшего во время одного из самых страшных массовых расстрелов в Канаде, подала в суд на компанию OpenAI. Истцы утверждают: технологическая компания могла предотвратить нападение на школу, которое произошло в прошлом месяце.
Стрелок из Канады пользовался ChatGPT, чтобы спланировать расстрел: в OpenAI знали о его планах, но не сообщили полиции

Иск появился спустя несколько дней после того, как глава OpenAI заявил о готовности принести извинения семьям жителей небольшого канадского городка. 10 февраля в Тамблер-Ридж, расположенном в горной местности, 18-летний стрелок убил восемь человек.

Позже выяснилось, что стрелок Джесси Ван Рутселаар обсуждал с ChatGPT сценарии насилия с применением оружия. Автоматизированная система проверки это зафиксировала.
Однако в OpenAI посчитали, что активность аккаунта не указывает на «достоверное или неизбежное планирование». Аккаунт Ван Рутселаара заблокировали, но канадские власти уведомлять не стали. Позже компания сообщила, что после блокировки первого аккаунта обнаружила второй, тоже связанный со стрелком.
Гражданский иск подала Сиа Эдмондс — от своего имени и от имени двух дочерей, Майи и Далии Гебалы. Обе девочки присутствовали во время стрельбы.
«Цель этого судебного иска — выяснить всю правду о том, как и почему произошла массовая стрельба в Тамблер-Ридж, привлечь виновных к ответственности, добиться возмещения ущерба, а также помочь предотвратить еще одно массовое убийство в Канаде», — говорится в заявлении юридической фирмы Rice Parsons Leoni & Elliott LLP, представляющей интересы семьи.

12-летняя Майя получила три пулевых ранения и, согласно материалам иска, до сих пор находится в больнице. И Сиа, и ее дочь Далия, которая физически не пострадала, страдают от посттравматического стрессового расстройства, тревожности, депрессии и нарушений сна.
В иске семья Эдмондс утверждает: OpenAI поспешно выпустила ChatGPT на рынок, не проведя должных исследований безопасности. Истцы требуют компенсацию за моральный ущерб (сумма не называется), называя действия компании «предосудительными и морально отвратительными» как для них лично, так и для «общественности в целом».
Пока эти обвинения еще не рассматривались в суде. Но судебный процесс определенно заставит OpenAI в очередной раз изменить подход к работе. Возможно, фильтрация ответов станет еще жестче, а подозрительные расспросы от пользователей будут автоматически отправляться в соответствующие спецслужбы.
