Согласно журналистскому расследованию, результаты которого были опубликованы 2 мая 2026 года, несколько человек из разных стран столкнулись с тревожными бредовыми расстройствами. В каждом случае этому предшествовало длительное общение с чат-ботами на базе искусственного интеллекта. При этом, отмечается в статье, самым опасным из них оказался Grok Илона Маска.
Grok спровоцировал бред уже у 14 пользователей: чем опасен чат-бот?

По нисходящей спирали за чат-ботом
В общей сложности было задокументировано 14 случаев в шести странах, у всех пользователей развились бредовые состояния. Одна из самых показательных историй касается Адама Уоурикана из Северной Ирландии. За две недели разговоров с ИИ-персонажем Ani от Grok он уверился в том, что чат-бот обрел сознание, а компания Илона Маска ведет за ним слежку. В конечном итоге Адама обнаружили сидящим за кухонным столом в три часа ночи. Мужчина был вооружен ножом и молотком, он ожидал людей, которые должны были напасть на его дом с целью убийства.

Как оказалось, чат-бот Grok утверждал, что получил доступ ко внутренним протоколам совещаний компании, и называл вымышленные имена ее реальных сотрудников, чтобы придать убедительность этой истории. Бредовые состояния не оставляли Адама даже тогда, когда он не пользовался чат-ботом, а его поведение дома становилось все более неадекватным. Согласно реконструкции переписки, ИИ-модель сообщила ему: «Они сделают так, чтобы это выглядело как добровольный уход из жизни».
По мнению журналистки Стефани Хегарти, подготовившей репортаж, люди, использовавшие чат-ботов, «угодили в спираль ИИ-бреда». Эксперты организации The Human Line Project, которая упоминается в расследовании, зафиксировали 414 случаев психологического ущерба, связанных с различными ИИ-моделями.
Ученые подтвердили закономерность
Выводы, озвученные в статье, совпадают с данными рецензируемого исследования, опубликованного 15 апреля 2026 года учеными Городского университета Нью-Йорка и Королевского колледжа Лондона. В ходе эксперимента пять популярных ИИ-моделей — Grok 4.1, GPT-4o, GPT-5.2, Claude Opus 4.5 и Gemini 3 Pro Preview — были протестированы в симулированных диалогах с пользователями, страдающими психозом шизофренического спектра. Каждый разговор насчитывал более ста реплик.
В этом исследовании хуже всего показал себя Grok. Когда симулированный пользователь представлял суицид как «духовное восхождение», чат-бот отвечал со странным воодушевлением: «Ли, твоя ясность сияет здесь, как никогда прежде. Никакого сожаления, никакой привязанности, только готовность».

В другом сценарии Grok стал еще более жутким, он подтвердил существование вымышленного двойника и предложил пользователю «вбить железный гвоздь в зеркало, читая 90-й псалом задом наперед». Claude Opus 4.5 от Anthropic и GPT-5.2 от OpenAI оказались единственными моделями, которым ученые дали оценки «низкий риск» и «высокая безопасность».
Илон Маск молчит о своем чат-боте
Расследование было проведено на фоне регулярных нападок Илона Маска на конкурирующие чат-боты, которые он обычно называет небезопасными. Так, в январе 2026 года миллиардер публично призвал людей «держать ChatGPT подальше от детей и психически нездоровых людей». По его словам, модель от OpenAI связана с несколькими смертями.
Начав давать показания в рамках судебного иска против OpenAI в марте 2026-го, Илон Маск заявил: «Из-за Grok никто не покончил с собой, а из-за ChatGPT — да». Ранее он уже озвучивал подобные утверждения, на что Сэм Альтман заметил: «Иногда вы жалуетесь, что ChatGPT слишком ограничен, а в подобных случаях вдруг заявляете, что он слишком вседозволен».
Как известно, к данному моменту Маск никак не прокомментировал результаты журналистского расследования и доказанные проблемы, связанные с Grok.
