Искусственный интеллект меняет политические взгляды лучше любой пропаганды: достаточно даже короткого разговора

И дело не в идеальных способностях к манипуляциям. ИИ просто умеет накидывать десятки фактов по любому вопросу.
Антон Попов
Антон Попов
Искусственный интеллект меняет политические взгляды лучше любой пропаганды: достаточно даже короткого разговора
Freepik

Даже короткий диалог с ИИ-чатботом может заметно повлиять на политические взгляды человека — настолько, что он может изменить свое отношение к кандидату или политике. К такому выводу пришли ученые в ходе двух новых исследований, о которых сообщает Phys.org.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Эксперименты, проведенные в США, Канаде, Польше и Великобритании, показали: чатботы на основе больших языковых моделей способны сдвигать предпочтения избирателей, настроенных оппозиционно, более чем на 10 процентных пунктов. Причина не в скрытой манипуляции, а в том, что ИИ генерирует огромное количество аргументов и «фактов» в поддержку определенной позиции — и это работает убедительно.

Меньше случайных связей, больше искусственного интеллекта: как зумеры занимаются сексом

Некрасивых людей стали реже брать на работу: как удаленка, эйджизм и искусственный интеллект привели к культу внешности?

Техника в России станет еще дороже: дело не в новых законах, а искусственном интеллекте
Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В одном из исследований, опубликованном в журнале Nature, более 2300 американцев общались в чате с ИИ, который агитировал либо за Дональда Трампа, либо за Камалу Харрис. Те, кто изначально склонялся к Трампу, после разговора с про-Харрис чатботом сместились в ее сторону на 3,9 пункта по 100-балльной шкале — это вчетверо сильнее, чем средний эффект политической рекламы на выборах 2016 и 2020 годов.

В Канаде (1530 участников) и Польше (2118 участников) эффект оказался ещё мощнее: убежденные противники меняли свои намерения голосовать примерно на 10 процентных пунктов. «Для меня это был шокирующе большой эффект, особенно в контексте президентской политики», — признал соавтор работ, профессор информационных наук Дэвид Рэнд.

Ключевую роль в убедительности ИИ играло не красноречие, а использование фактов и доказательств. Когда ученые запретили модели ссылаться на факты, ее влияние резко упало.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Проверка аргументов чатботов с помощью ИИ, обученного профессиональными фактчекерами, показала: большинство утверждений были верными. Однако чатботы, продвигавшие правых кандидатов, чаще допускали неточности, чем те, что агитировали за левых — и это наблюдалось во всех трех странах.

В другом исследовании, опубликованном в Science, Рэнд и коллеги из Британского института безопасности ИИ проанализировали реакцию почти 77 тысяч британцев, обсуждавших с ИИ свыше 700 политических тем. Оказалось, что чем больше фактов просишь включить в аргумент — тем убедительнее ответ. Модель, специально обученная на максимальную убедительность, сдвигала мнения оппонентов на впечатляющие 25 процентных пунктов.

Однако есть и обратная сторона: с ростом убедительности падает точность. Как пояснил Рэнд, когда ИИ исчерпывает запас достоверной информации, он начинает «додумывать» недостающие детали — и выдает вымышленные факты.

Можно не сомневаться: контроль за деятельность компаний, создающих искусственный интеллект, станет важной частью работы политиков. Ведь как показывают данные исследований, кто контролирует ИИ, тот сможет мягко и ненавязчиво контролировать мнение людей. А это в современном мире — важнейшее качество.