ChatGPT превращает людей в ипохондриков: почему с ИИ нельзя обсуждать здоровье

Эффект может быть даже хуже, чем от поиска симптомов в Google.
Марина Емельянцева
Марина Емельянцева
ChatGPT превращает людей в ипохондриков: почему с ИИ нельзя обсуждать здоровье
Freepik

Нейросети все глубже интегрируются в нашу жизнь: кто-то использует их в работе, другие – как личного психолога, а некоторые и вовсе заводят с ИИ виртуальные романы. Но такое сближение с искусственным интеллектом далеко не всегда влияет на нас положительно – в итоге даже, казалось бы, обыденное обсуждение проблем со здоровьем может вылиться в настоящие приступы ипохондрии, вызвать тревожность и усилить стресс.

Журнал The Atlantic рассказал историю 46-летнего Джорджа Мэллона из английского Ливерпуля, который начал ежедневно общаться с чат-ботом ChatGPT после того, как получил из клиники предварительные результаты своего анализа крови – они показали, что у мужчины может быть рак. Британец попросил нейросеть расшифровать для него документ, но вместо того, чтобы снять его тревогу, нейросеть лишь еще больше ее усугубила. «Я просто прокатился по безумному колесу обозрения, полному эмоций и страха», — так описывает свое тогдашнее состояние Джордж.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Повторные анализы показали, что онкологии у Мэллона все же нет, однако он уже не мог перестать общаться с ИИ. От проблем с физическим здоровьем их дискуссия перешла к ментальным: Джордж начал делиться с нейросетью всеми своими переживаниями, но вместе с поддержкой получал лишь новые порции страха, опасений и тревоги. «Я провел с ChatGPT как минимум 100 часов, потому что думал, что меня хотят уволить. Там должно было быть что-то, что остановило бы меня», — считает британец.

Читайте Men Today в MAX

Мэллон такой не единственный – в интернете растет количество сообществ, в которых люди делятся тем, как нейросети превратили их в ипохондриков. По словам пользователей, многие из них после общения с ИИ начали верить, что у них могут быть неизлечимые и смертельные заболевания, и буквально зациклились на своем здоровье.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Журналистка The Atlantic Сейдж Лазарро решила испытать это на себе. Как только она завела с ChatGPT разговор про свое здоровье, бот активно начал развивать тему и побуждал ее задавать уточняющие вопросы, чтобы продолжить разговор. «В одном из разговоров прошло всего несколько минут между первым ответом нейросети, которая предложила мне обратиться к врачу, и подробным описанием того, какие органы отказывают при инфекции, приводящей к септическому шоку», — пишет она.

Наличие нездорового тренда подтверждают и специалисты. Психолог Лиза Левин, специализирующаяся на тревожных расстройствах, отмечает: постоянное присутствие ИИ, который с готовностью выслушивает все жалобы человека на здоровье, не только не помогает решить проблемы (если они вообще есть), но даже усугубляет ситуацию. «Поскольку ответы даются мгновенно и они персонализированы, это оказывает даже более сильное подкрепляющее воздействие, чем поиск симптомов в Google. А это выводит стресс на совершенно новый уровень», — поясняет Левин.

Не верьте красивым ответам ИИ: почему ChatGPT путает ложь и правду даже в 2026 году и как это исправить

Роман с ChatGPT сломал жизнь айтишнику из Нидерландов: он потерял семью и получил огромные долги

Не создавайте пароли с помощью ChatGPT: эксперты выяснили, что это очень опасно​​​​​​​

Единственный выход из этой ситуации – не воспринимать ответы ИИ слишком близко к сердцу и все же полагаться на мнение профессиональных врачей, прежде чем делать категоричные выводы о собственном состоянии здоровья.

Читайте Men Today в MAX