Подростки начали массово обращаться к ИИ за психологической помощью. Почему это плохая идея?

Исследование проводилось в Великобритании, хотя в других странах наверняка наблюдается похожая картина.
Антон Попов
Антон Попов
Подростки начали массово обращаться к ИИ за психологической помощью. Почему это плохая идея?
Freepik

Подростки из Великобритании все чаще обращаются к чат-ботам за психологической поддержкой. Так, исследование, охватившее более 11 тысяч подростков в Англии и Уэльсе, выявило, что около 40 % юношей и девушек в возрасте 13–17 лет, столкнувшихся с насилием, обращаются за поддержкой психического здоровья к ИИ-чатам. Об этом сообщает The Guardian.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Среди тех, кто сам стал жертвой насилия или участвовал в нем, доля подростков еще выше. Главными причинами называют простоту доступа, конфиденциальность и то, что ИИ «не осуждает».

«Я чувствую, что меня видят»: зачем зумеры выбирают ChatGPT вместо живого психолога

Искусственный интеллект наступает: кого нейросети лишат работы в первую очередь

Более продвинутый подход, чем потрепанный сонник: может ли ChatGPT проанализировать ваши сны?​​​​​​​
Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Многие подростки сравнивают чат-ботов с друзьями: они всегда на связи, не докладывают взрослым и не ставят диагнозов. По данным опроса, каждый четвертый участник за последний год хотя бы раз обращался к искусственному интеллекту за психологической помощью. Особенно активно ИИ используют те, кто ждет своей очереди на терапию или кому в ней отказали.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

К сожалению, у нас нет данных по количеству обращений к ИИ за психологической помощью в России. Но можно предположить, что количество обращений также высоко. Несмотря на то, что получить помощь психолога в России проще, все еще существует проблема стигматизации, которая делает для некоторых людей психологическую поддержку невозможной.

И такое частое обращение к ИИ за советом — проблема. Особенно, когда речь идет о подростках с подвижной психикой, склонных излишне доверять искусственному интеллекту. Такие разговоры могут заканчиваться трагедией, и мы уже освещали подобные истории

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Проблема такой «искусственной» поддержки не в том, что у ИИ нет знаний. В него загружен весь интернет и при наличии грамотного запроса модель способна порекомендовать действительно эффективные методы преодоления кризиса. Но у ИИ отсутствует эмпатия, а это очень важное качество для специалиста такого рода. Мало услышать человека, нужно также почувствовать, что он испытывает, считать возможные невербальные сигналы и задать вопросы, которые будут учитывать эти нюансы.

Пусть некоторые исследования показывают превосходство ИИ над классическими психологами в хард скиллах, в навыках эмпатии и человеческого разговора, искусственному интеллекту еще далеко до человека. Поэтому эффективность такой терапии находится под большим вопросом.

Наконец, ИИ не защищен от галлюцинаций, а его манера со всем соглашаться и безусловно поддерживать может довести психически нестабильного человека до кризиса, который иногда заканчивается трагедией.

Поэтому несмотря на огромные перспективы ИИ в психологической сфере, пока существует множество проблем, делающих такую терапию небезопасной. Возможно, это изменится уже в недалеком будущем, а пока лучше обратиться к квалифицированному специалисту. Это принесет больше пользы и не чревато такими серьезными рисками.