Эксперт рассказал об опасности ИИ: об этом многие забывают

Нейросети — настоящее оружие в руках мошенников.
Антон Попов
Антон Попов
Эксперт рассказал об опасности ИИ: об этом многие забывают
Freepik

Несколько дней назад мы писали о поразительном открытии ученых. Оказалось, что искусственный интеллект уже сейчас способен скопировать личность любого человека в течение пары часов. И сходство будет поразительным. Как установили исследователи, копия соответствует оригиналу на 85% (разумеется, речь не идет о воспоминаниях). 

И создание копий — это чудесная возможность для социологов, обычных людей, рискующих потерять близких, а еще для мошенников, которые регулярно придумывают новые способы развода. С помощью ии-копий в их распоряжении окажется сильнейший инструмент, который позволит грабить даже самых внимательных и подозрительных. Об этом рассказал руководитель образовательной программы «Искусственный интеллект» НИЯУ МИФИ Роман Душкин.

Искусственный интеллект может довести до тюрьмы: в Японии судят мужчину, который создал ИИ-блогера

Искусственный интеллект вышел из-под контроля: новая модель ChatGPT устроила хаос, узнав об отключении

Страшно интересно: искусственный интеллект научили предсказывать дату смерти
Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Мы можем скопировать профиль человека по его ответам на какие-то вопросы, по репликам в социальных сетях, по каким угодно текстам, которые он оставляет в рамках своего цифрового следа. Здесь речь идет о чем? Что злоумышленник потенциально может набрать тексты своей жертвы и скормить их GPT-модели, а потом пытаться расспрашивать ее о каких-то вещах, то есть профилировать человека. Вот это действительно может быть очень опасным», — пояснил эксперт.

Такая вероятность действительно существует, однако есть немаловажный нюанс. Так, искусственный интеллект пока что не способен скопировать личность человека с помощью его текстов. Ученые использовали несколько популярных тестов личности, чтобы получить достоверный результат. Именно ответы пользователей скармливали ИИ. Поэтому пока что у мошенников нет простых способов скопировать личность с помощью пары комментариев, которые вы несколько лет назад оставляли в социальных сетях. 

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Вообще далеко не факт, что личность человека вообще можно скопировать на основе его комментариев. Совершенно очевидно, что если комментариев будет много, искусственный интеллект способен обучиться стилю человека, но вот с личностью куда сложнее.

Впрочем, сейчас уже самое время задуматься о том, нужно ли повсеместно оставлять свой цифровой след. Также эксперт добавил, что другой вариант использования мошенниками сгенерированных профилей людей — общение с жертвами от лица их знакомых. В таком случае важно проверять аккаунты людей, с которых человеку пишут. Впрочем, это не поможет, если аккаунт вашего родственника был предварительно взломан. Лучшей проверкой будет звонок на телефон. Так проще всего. 

Поэтому мошеннических схем в обозримом будущем станет значительно больше. К этому стоит подготовиться. Но и паниковать, удаляя всю информацию о себе из сети, не стоит. Далеко не факт, что это эффективная стратегия.