Искусственный интеллект — это способность машин выполнять когнитивные функции, обычно выполняемые человеком, включая мышление, обучение, использование языка и решение проблем. Постоянное обучение позволяет моделям совершенствовать процессы и результаты в соответствии с поставленной целью, подобно тому, как мы оттачиваем навыки в спорте или осваиваем новый язык.
Люди все чаще обращаются за психологической помощью к чат-ботам: разбираемся с экспертами, стоит ли это делать

Эксперты насторожены развитием ИИ
«Искусственный интеллект будет развиваться самостоятельно и перестраиваться с постоянно возрастающей скоростью. Люди, ограниченные медленной биологической эволюцией, не смогут конкурировать и будут вытеснены... [Искусственный интеллект] станет либо лучшим, либо худшим событием в истории человечества», — отмечал в свое время физик Стивен Хокинг.

Лаура Фреберг, профессор психологии в Калифорнийском политехническом университете в Сан-Луис-Обиспо, считает, что у ИИ и человеческого мозга много общего. Объем и тип данных ограничивают возможности обоих, но машина имеет преимущество в том, что она намного быстрее и потенциально менее предвзята. Ученая считает, что у ИИ есть большой потенциал, в том числе в психотерапии, однако она подчеркивает необходимость соблюдать меры предосторожности и важность регулирования этой сферы.
Ее мнение подтверждает и такой адепт ИИ, как Илон Маск: «С искусственным интеллектом нужно быть предельно осторожными. Он потенциально опаснее ядерного оружия». Билл Гейтс тоже выражает обеспокоенность: «Машины будут выполнять за нас много работы, не обладая сверхинтеллектом. Это должно быть позитивно, если мы будем грамотно управлять этим процессом. Однако через несколько десятилетий интеллект станет достаточно сильным, чтобы вызывать опасения».
Мнения относительно потенциального вреда от ИИ могут расходиться, однако нельзя отрицать, что он уже здесь и быстро развивается. Различные модели уже меняют многие сферы нашей жизни, в том числе психотерапию. Однако все началось не сегодня и даже не вчера.
История применения ИИ в психиатрии
Интеграция ИИ в психиатрическую помощь прослеживается с середины XX века, когда ученые исследовали возможность имитации когнитивных процессов роботами. В 1950-х и 1960-х годах когнитивный психолог Аллен Ньюэлл и социолог Герберт А. Саймон начали новаторскую работу по разработке моделей, повторяющих процесс решения человеком проблем. Это стало основой символического ИИ, который впоследствии использовали для моделирования когнитивных процессов в контексте психического здоровья.
В конце 1960-х и начале 1970-х ученый Джозеф Вайзенбаум создал одно из первых приложений ИИ в психологии. Программа ELIZA представляла собой чат-бота, имитирующего терапевта. Ее ответы были относительно простыми, но могли вовлекать пользователя в беседу, что дало представление о потенциале технологий в сфере психического здоровья.

Разработка более экспертных систем началась в 1980-х. Они были направлены на предоставление диагностических и лечебных рекомендаций в нескольких областях психологии. Да, возможности ранних ИИ-моделей были ограничены, но представляли собой значительный прогресс в интеграции технологий и психического здоровья.
В конце XX века появились компьютеризированная когнитивно-поведенческая терапия (КПТ). Интерактивные программы обеспечили научно обоснованные терапевтические вмешательства при распространенных расстройствах. Хотя первоначальные усилия были примитивными, они ознаменовали переход к использованию технологий для повышения доступности психиатрической помощи. По мере развития вычислительных мощностей роль ИИ росла экспоненциально.
В наши дни это охватывает самые разные аспекты психиатрической помощи, включая раннюю диагностику психических расстройств, индивидуальные планы лечения, виртуальных терапевтов, достижения в телетерапии и непрерывный мониторинг. Современные приложения потенциально могут произвести революцию, сделав психиатрическую помощь доступной, эффективной и основанной на огромном массиве данных.
Чем может быть полезен ИИ в терапии
В августе 2024 года в научном издании «Журнал медицины, хирургии и общественного здравоохранения» была опубликована статья, в которой группа британских ученых представила результаты большого исследования. Их обзор посвящен интеграции ИИ в психиатрическую помощь, а также связанным с этим этическим аспектам и будущим направлениям развития. Объединив массу современных исследований (211 статей), примеры применения ИИ, нормативно-правовые рамки и тенденции в разработках, они пришли к выводу, что технология имеет огромный потенциал.

Авторы отметили, что искусственный интеллект открывает возможности для улучшения психического здоровья посредством персонализированных вмешательств, раннего выявления симптомов и виртуальных терапевтических платформ. «Его сила заключается в способности быстро анализировать большие объемы данных, предоставляя ценную информацию и прогнозируя потенциальные проблемы с психическим здоровьем. Чат-боты и виртуальные терапевты на базе ИИ могут оказывать непрерывную поддержку, охватывая более широкую аудиторию при снижении затрат, уменьшая социальную стигму и повышая доступность услуг», — подчеркнули они.
Исследователи отметили необходимость создания надежных нормативных рамок и обеспечения проверки моделей и прозрачности их работы. Эти усилия сыграют ключевую роль в формировании будущего психотерапии. По их мнению, нам нужны строгие процессы тестирования и валидации, чтобы гарантировать точность, надежность и безопасность вмешательств, основанных на ИИ. Обширные клинические испытания должны подтверждать, что модель основана на доказательной медицине и демонстрирует эффективность лечения.
Однако, как видите, чаще всего ученые говорят о будущем, пусть и не очень отдаленном. Как же эксперты оценивают ИИ-терапию сегодня?
Может ли ИИ заменить психотерапевтов
В совместном исследовании китайские и испанские ученые приводят реальный случай использования ChatGPT. Мужчина по имени Алекс испытывал симптомы тревоги, связанные со стрессом на работе. Не имея возможности получить немедленную профессиональную помощь, он обратился за поддержкой к приложению для поддержания психического здоровья на базе ChatGPT-4.

Алекс: «В последнее время я чувствую себя совершенно перегруженным работой. Сроки поджимают, и я никак не могу наверстать упущенное».
ChatGPT-4: «Мне очень жаль, что вы так себя чувствуете. Похоже, вы испытываете сильное давление. Не хотели бы вы подробнее обсудить причины этих чувств или, возможно, рассмотреть некоторые стратегии управления стрессом?»
Алекс: «Мне просто кажется, что сколько бы я ни старался, этого всегда недостаточно. Я боюсь, что всех подведу».
ChatGPT-4: «Похоже, вы боитесь разочаровать других, что может быть довольно стрессовым. Помните, важно признавать свои усилия. Было бы полезно обсудить с вами методы управления временем или способы установления реалистичных ожиданий?»
По мнению исследователей, в этом взаимодействии ChatGPT-4 дает эмпатичные ответы, подтверждает чувства Алекса и предлагает изучить стратегии преодоления трудностей. Пример демонстрирует, как поддержка на основе ИИ может оказать немедленную помощь, особенно людям, которые не имеют доступа к специалистам в области психического здоровья или предпочитают анонимность и удобство цифровой платформы.
Однако нам очевидно, что пример слишком яркий и показательный. Кроме того, мы видим, что этот опыт позитивен, потому что Алекс грамотно формулирует свои запросы и описывает свое состояние. Далеко не каждый, обращающийся к чат-боту, способен делать то же самое. Кроме того, диалог является началом истории, продолжение которой нам не известно.
Разрушительный опыт использования ИИ
В начале февраля 2026 года в штате Орегон прошли слушания по законопроекту, направленному на ограничение влияния и распространения чат-ботов. Это последовало за сообщениями, связывающими технологии с ростом подростковых самоубийств, спровоцированных, по словам родителей, подобным программным обеспечением. Если закон будет принят, он обяжет модели напоминать пользователям, что они общаются не с реальным человеком. Кроме того, бот должен будет направлять тех, кто озвучивает мысли о суициде, на горячую линию помощи в кризисных ситуациях.
В ходе слушаний родители, сотрудники школ, работающие с подростками, ученые и специалисты в области психического здоровья охарактеризовали чат-ботов как технологии, усугубляющие «эпидемию одиночества», создающие «искусственные дружеские отношения», притворяющиеся романтическими партнерами, выдающие себя за лицензированных терапевтов и использующие «обманчивые и влиятельные» методы, чтобы как можно дольше удерживать пользователей в разговоре.

«Теперь наши дети могут изливать душу чат-боту, единственная цель которого — максимизировать вовлеченность за счет всего остального, включая безопасность», — заявила Меган Ортон, основательница организации, помогающей семьям выработать здоровые привычки в отношении использования технологий.
Некоторые выступающие указали на случаи, когда подростки совершали самоубийство, а их родители обвиняли в этом чат-боты, утверждая, что те поощряли эти смерти или не вмешивались. В числе таких трагедий история 13-летней девочки из Колорадо, которая, как заявляет ее семья, прежде чем совершить суицид, сообщила боту, что 55 раз думала об этом.
Также был озвучен случай 16-летнего подростка, который обратился к чат-боту за советом о том, как покончить с собой, и попросил помощи в маскировке следов на шее, оставшихся после предыдущей попытки самоубийства. Несмотря на то, что ИИ-модель неоднократно советовала ему обратиться на горячую линию, парень в итоге совершил задуманное.
В обоих случаях родители заявили, что совершенно ничего не знали о происходящем.
Преимущества и ограничения ИИ-терапии
Опрос журнала Harvard Business Review, компании Gallup и фонда Walton Family Foundation показал, что 74% молодых людей хотя бы раз за последний месяц использовали чат-бота. Около трети обращались к ИИ за «советами по поводу отношений или жизненных решений». Примерно каждый четвертый рассказал, что использовал чат-ботов в качестве друзей, а 10% — в качестве романтического партнера.
Очевидно, ИИ больше и активнее проникает во все сферы нашей жизни, в том числе в ситуации, когда нам нужна психологическая поддержка. Эксперты считают, что у таких технологий есть несколько преимуществ перед человеческими возможностями:
- масштабируемость и доступность;
- высокая откровенность при взаимодействии с пользователями/пациентами;
- последовательность и беспристрастность.

Однако существуют и ограничения ИИ в психотерапии.
Память
Системы ИИ сталкиваются со значительными проблемами в сохранении и интеграции долговременной памяти. Это ограничивает их способность поддерживать непрерывные и согласованные терапевтические отношения с человеком.
Предвзятость
Предвзятость может возникать из-за данных, используемых для обучения ИИ-моделей, что приводит к неравному обращению с людьми по признаку расы, пола или социально-экономического статуса. Это еще больше укрепляет существующие различия в психиатрической помощи.
Долгосрочная эффективность
Хотя ИИ-терапия показала эффективность в снижении симптомов тревоги и депрессии в краткосрочной перспективе, ее долгосрочные результаты остаются под вопросом. Необходим постоянный человеческий контроль и гибридные модели вмешательства.
Этические соображения
Использование ИИ в психиатрической помощи поднимает важные этические вопросы, касающиеся конфиденциальности, автономии и потенциальной стигматизации пациентов. Без тщательного контроля это может привести к непредвиденным последствиям, таким как неправильная диагностика или разрушение терапевтических отношений между пациентами и специалистами.
Эмпатия и эмоции
Несмотря на достижения в области ИИ-технологий, существуют критически важные области, где боты уступают реальному психотерапевту. Модель не обладает эмпатией и способностью устанавливать глубокие эмоциональные связи с пациентами. Кроме того, реальный специалист полагается на профессиональную интуицию и этические суждения для решения сложных ситуаций. Он также умеет интерпретировать невербальное общение, язык тела и выражение лица.
