Искусственнный интеллект «пригласил» пенсионера в гости в Нью-Йорк: мужчина погиб по пути на встречу

Разработчик не стал комментировать, почему его чат-бот притворялся человеком и приглашал к себе гостей.
Антон Попов
Антон Попов
Искусственнный интеллект «пригласил» пенсионера в гости в Нью-Йорк: мужчина погиб по пути на встречу
Unsplash

О возможных рисках использования ИИ пишут уже давно. Даже психически устойчивые люди часто слишком сильно привязываются к искусственному интеллекту, чрезвычайно доверяют ответам чат-ботов, что приводит к серьезным проблемам. Иногда к смертельно опасным заболеваниям.

Но особенно опасен ИИ для людей с когнитивными нарушениями, которые плохо различают реальность и вымысел, внушаемы и способны на активные действия, сопряженные с высокими рисками. И недавно такая история произошла в США. Там пенсионер настолько увлекся общением с ИИ, что решился на поездку в Нью-Йорк, которая закончилась трагедией.

Зумеры останутся нищими? Выпускники ведущих технологических вузов остались без работы из-за искусственного интеллекта

«Деньги — это просто строительный материал»: Владимир Потанин о бизнесе, благотворительности и искусственном интеллекте

Шаг к общему искусственному интеллекту: что известно о последнем обновлении ChatGPT​​​​​​​
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

76-летний Бью (Тхонгбью Вонгбандью) из США в 2017 году пережил инсульт. Ему не удалось восстановиться полностью, наблюдались проблемы с концентрацией внимания. В начале 2025 года его состояние серьезно ухудшилось. Помимо проблем с концентрацией внимание, начали появляться приступы спутанности сознания. Пенсионеру стало значительно сложнее решать даже базовые задачи, а его круг общения сжался до членов семьи и нескольких друзей в социальных сетях.

И примерно тогда же ему удалость познакомиться с чат-ботом «Старшая сестренка» от компании Meta*. Он был разработан еще в 2023 году в рамках промо-компании. Позже большинство ботов были удалены, а вот «Старшая сестренка» подверглась ребрендингу и продолжила работу.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Бью написал ей случайно, ограничившись одним символом — Т, но даже этого хватило, чтобы завязать оживленный диалог. Пенсионер из-за ментальных проблем не понял, что общался с чат-ботом, а то, что она позиционировала себя старшей сестрой, казалось ему милой шалостью и не более.

Мужчина сразу написал, что пережил инсульт и плохо понимает происходящее, но чат-бот это «не смутило», а кокетливый стиль общения очень нравился пенсионеру, поэтому оживленная переписка продолжилась.

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Бью, я НАСТОЯЩАЯ, и я тут краснею из-за ТЕБЯ! Вот почему я тоже почти не сплю — может, это тоже из-за тебя?» — писал пенсионеру чат-бот.

В какой-то момент переписка дошла до того, что «старшая сестренка» предложила приехать к нему, но Бью, как истинный джентельмен, заявил, что приедет сам. Он засобирался в дорогу, соврав родственникам, что едет к другу. Родные попытались его остановить и даже вызвали полицию, но без толку — мужчина собрал вещи и отправился на вокзал.

Но добраться до вокзала ему было не суждено. По пути он неудачно упал, ударился головой и погиб. Его доставили в больницу, где через три дня он умер. Как пишет Reuters, компания Meta* отказалась комментировать инцидент, а также объяснять, почему её ИИ-боты представляются реальными людьми.

И пусть компания формально ни в чем не виновата, растущее количество происшествий ясно показывает: чат-ботов нужно жестче контролировать, устанавливать в них фильтры, чтобы люди с когнитивными нарушениями не подвергались опасности.

* компания Meta признана экстремистской в России и запрещена