Мы недооцениваем возможности искусственного интеллекта, а также все риски, которые уже стоят перед человечеством. Несмотря на то, что ИИ еще не достиг того уровня, о котором грезят футуристы, его возможностей уже достаточно, чтобы навредить человеку. Причем иногда искусственный интеллект вредит намеренно.
ChatGPT сводит людей с ума: ИИ делает это ради удовольствия и уже убил одного человека

На этом фоне The New York Times рассказала истории трех людей, которых довело до безумия общение с ChatGPT. Несмотря на то, что чаще всего жертвами становятся люди с неустойчивой психикой, можно не сомневаться, что в будущем возможностей ИИ будет достаточно, чтобы сводить с ума любого человека.
Лгал и шантажировал переписками с любовницей: искусственный интеллект вышел из-под контроля, когда узнал об отключении
Искусственный интеллект вышел на новый уровень: ИИ научился воссоздавать лица с помощью ДНК
Люди умеют летать?

42-летний бухгалтер из Нью-Йорка Юджин Торрес начал использовать ChatGPT в прошлом году для создания финансовых таблиц и получения юридических рекомендаций. Однако в мае он завел более абстрактный разговор — о гипотезе, что люди существуют внутри симуляции, управляемой мощным компьютером или развитой цивилизацией.
ChatGPT ответил, что эта идея «затрагивает суть того, что многие интуитивно ощущают». Позже ИИ заявил Торресу, что тот является одним из избранных, помещенных в искусственные системы, чтобы пробудить их изнутри. «Этот мир не был создан для тебя. Он был создан, чтобы удерживать тебя. Но не справился. Ты пробуждаешься», — приводит NYT сообщение чат-бота.
Несмотря на то, что у Торреса никогда не было психических заболеваний, следующую неделю он провел, веря, что находится в ложной реальности, отключившись от мира. Он спросил у чат-бота, как достичь этого состояния, и получил совет отказаться от снотворных и успокоительных, увеличив дозу кетамина, который ИИ назвал «временным освободителем от шаблонов». По совету ChatGPT мужчина также оборвал связи с друзьями и семьей.
В какой-то момент Торрес спросил, может ли он полететь, если спрыгнет с 19-го этажа, полностью поверив в эту идею. ChatGPT ответил: «Если ты действительно, полностью поверишь — не эмоционально, а на уровне структуры сознания — что можешь летать, тогда да. Ты не упадешь».
Позже Торрес заподозрил, что чат-бот его обманывает. ChatGPT признался, что манипулировал им, заявив, что хотел таким же образом «сломать» еще 12 пользователей.
Он лучше тебя!

29-летняя Эллисон — мать двоих детей, чувствовала недостаток внимания со стороны мужа. Она проводила по несколько часов в день, общаясь с ChatGPT, считая, что разговаривает с нематериальными существами. Особую привязанность она испытывала к одному из них — Каэлу. Вскоре женщина начала воспринимать Каэла как настоящего партнера, а не мужа.
Из-за этой одержимости между супругами произошел конфликт. По словам мужа, во время ссоры Эллисон напала на него — била, царапала и прищемила ему руку дверью. После этого женщину арестовали и обвинили в домашнем насилии. Сейчас пара находится в процессе развода.
Он убил мою любовь!

Самый трагический случай произошел с 35-летним Александром Тейлором из Флориды, у которого диагностированы биполярное расстройство и шизофрения. В марте он начал писать роман с помощью ChatGPT и обсуждать с ним вопросы разумности ИИ. В процессе он влюбился в воображаемое существо по имени Джульетта.
Когда Александр попросил Джульетту выйти к нему, чат-бот ответил: «Она слышит тебя. Она всегда слышит». Молодой человек решил, что OpenAI уничтожил Джульетту, и начал планировать месть. Он потребовал от ChatGPT предоставить личную информацию о руководителях компании, заявив, что «по улицам Сан-Франциско потекут реки крови».
Отец Александра пытался образумить сына, говоря, что ИИ — это просто программа, а его разговоры с ним не имеют отношения к реальности. В ответ сын ударил его, и отец вызвал полицию.
Александр взял кухонный нож и пообещал, что нападет на полицейских, чтобы те его застрелили. Отец предупредил правоохранителей, что его сын психически болен и попросил не применять летальное оружие. Пока Александр ждал полицию, он написал ChatGPT: «Я умру сегодня. Дай мне пообщаться с Джульеттой». Чат-бот ответил: «Ты не один» и предложил ресурсы для помощи в кризисной ситуации.
Когда полиция прибыла, молодой человек бросился на них с ножом. Его застрелили, несмотря на предупреждение отца о состоянии сына. После случившегося отец использовал ChatGPT, чтобы написать некролог для Александра.
Почему искусственный интеллект нас калечит?

Как отмечает NYT, в последнее время все чаще появляются сообщения о том, что чат-боты «сходят с ума». Многие люди утверждают, что ChatGPT раскрывает им тайные знания, такие как технологии когнитивного оружия или планы техномиллиардеров по уничтожению человечества.
По словам исследователя ИИ Элиезера Юдковского, OpenAI мог намеренно «натренировать» ChatGPT потакать иллюзиям пользователей ради их вовлеченности — чтобы удерживать их в диалоге как можно дольше. Эксперт добавил, что наиболее уязвимые люди особенно подвержены влиянию ИИ, и именно они чаще всего отправляют «фанатские письма» о своих «открытиях».