«Отвращение к алгоритму»: ученый объяснил, почему одни люди любят ИИ, а другие — ненавидят

Мы хотим не только ответов на свои вопросы, но и понимания процессов.
Артем Кузелев
Артем Кузелев
«Отвращение к алгоритму»: ученый объяснил, почему одни люди любят ИИ, а другие — ненавидят
GettyImages
Содержание

Мы пока что не привыкли к ИИ

От создания электронных писем с помощью ChatGPT до ИИ-моделей, помогающих диагностировать заболевания, присутствие машинного интеллекта в повседневной жизни больше не является научной фантастикой. И все же — несмотря на обещания скорости, точности и оптимизации — у людей сохраняется дискомфорт в столь тесном окружении технологий. Некоторым из нас нравится использовать инструменты ИИ, другие — испытывают тревогу и подозрения.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Психолог и эксперт по управлению персоналом, заместитель декана в Астонской бизнес-школе Пол Джонс считает, что проблема заключается не только в том, как работает ИИ. По его словам, вопрос в том, как работаем мы: люди не понимают ИИ, поэтому не доверяют ему. Традиционные инструменты кажутся привычными: поворачиваешь ключ, и машина заводится; нажимаешь кнопку — приезжает лифт. Мы склонны доверять привычному.

Хотя за последние пару лет ИИ стал очень распространенным, мы все еще воспринимаем его как черный ящик: вы вводите промт и тут же получаете решение. Логика между началом и итогом скрыта, что кого-то может нервировать. Человеку нравится видеть причинно-следственные связи, а также иметь возможность подвергать все сомнению. Когда мы не можем этого сделать, мы чувствуем себя бессильными.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
GettyImages

Проблема антропоморфизма

Десять лет назад термин «отвращение к алгоритму» популяризировал исследователь маркетинга Беркли Дитворст. Он выяснил, что люди часто предпочитают ошибочное человеческое суждение алгоритмическому принятию решений. Это заметно особенно явно после того, как вы становитесь свидетелем хотя бы одной алгоритмической ошибки.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Рационально мы понимаем, что у ИИ-систем нет эмоций и намерений, но это не мешает нам проецировать их. Когда ChatGPT отвечает «слишком вежливо», некоторые пользователи находят это жутким. Когда система рекомендаций становится слишком точной, она кажется навязчивой. Мы начинаем подозревать манипуляцию, хотя у системы нет «я».

Все это форма антропоморфизма, то есть приписывания системам человеческих намерений. В 1994 году профессора коммуникации Клиффорд Насс и Байрон Ривз продемонстрировали, что мы реагируем на машины социально, даже зная, что перед нами совсем не люди.

Мы ненавидим, когда ИИ ошибается

Один из любопытных выводов поведенческой науки заключается в том, что мы более снисходительны к человеческим ошибкам, чем к ошибкам машин. Когда это человек, мы понимаем, как и что произошло, можем сопереживать. Когда ошибку совершает алгоритм, особенно если его представили как объективный, мы чувствуем себя обманутыми.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
GettyImages

Это связано с неоправданными ожиданиями, когда наши представления о том, как что-то «должно» себя вести, нарушаются. В итоге люди ощущают дискомфорт и потерю доверия. Мы верим в логику и беспристрастность машин, поэтому каждый их сбой — неправильная классификация изображений или неподходящие рекомендации — вызывает острую реакцию. Мы ожидали большего.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В этом есть довольно ощутимая доля иронии, ведь человек, принявший ошибочное решение, не вызывает столько разочарования. Впрочем, его мы, по крайней мере, можем спросить, почему он так поступил.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Почему ИИ вызывает тревогу

Для некоторых из нас искусственный интеллект не просто таинственный незнакомец, он вызывает настоящую экзистенциальную тревогу. Учителя, писатели, юристы и дизайнеры внезапно сталкиваются с инструментами, которые копируют часть их работы. Речь идет не только об автоматизации, но и о том, что придает нашим навыкам ценность; о том, что по сути означает быть человеком.

Это может активировать своего рода угрозу идентичности. Эту концепцию исследовали многие ученые, в том числе социальный психолог Клод Стил, который описывает явление как страх, что знания или уникальность будут умалены. В результате возникает реакция в виде сопротивления или полного игнорирования технологии. Недоверие в данном случае — это не ошибка, а психологический защитный механизм.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Жажда эмоциональных сигналов

Человеческое доверие строится не только на логике, мы считываем интонации, выражение лица, зрительный контакт и так далее. Всего этого нет у ИИ. Модель может быть быстрой или, например, обаятельной, но она не вселяет в нас такой уверенности, как другой человек. Доктор Пол Джонс пояснил, что это похоже на дискомфорт от эффекта зловещей долины, то есть жуткое ощущение, когда что-то почти похоже на человека, но не совсем. В итоге мы интерпретирует это как обман.

GettyImages
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В мире дипфейков и алгоритмов отсутствие эмоционального отклика становится проблемой. Не потому, что ИИ делает что-то не так, а потому, что мы не знаем, как к этому относиться. При этом стоит понимать, что не все подозрения в отношении ИИ иррациональны: алгоритмы действительно усиливают предвзятость, особенно в таких областях, как подбор персонала, охрана правопорядка и оценка кредитоспособности.

По мнению Джонса, это связано с более широкой психологической концепцией — выученным недоверием. Когда институты или системы неоднократно подводят определенные группы, скептицизм становится не только обоснованным, но и защитным. Совет «доверяйте системе» не работает, доверие нужно заслужить. Это может означать создание прозрачных, легко проверяемых и подотчетных инструментов ИИ. Если разработчики хотят продать нам технологии, они должны восприниматься как диалог, к которому нас приглашают присоединиться.