Реальности больше нет: почему вам сложно отличить правду от ИИ-фейка?

Как определить, что текст написан не ИИ, а герой видео — реальный человек?
Артем Кузелев
Артем Кузелев
Реальности больше нет: почему вам сложно отличить правду от ИИ-фейка?
GettyImages
Содержание

Реальности больше не существует

С развитием технологий отличить реальность от вымысла стало сложно. Чем больше они совершенствуются, тем в большее замешательство нас повергают. Мы давно привыкли к ретуши, фотошопу и компьютерной графике. National Geographic корректировал изображения египетских пирамид, чтобы они лучше выглядели на обложке, а Том Хэнкс появился на встрече с президентом Джоном Кеннеди в «Форрест Гампе».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

То, что начиналось как творчество или трэшовые GIF-открытки от родственников, превратилось во вселенную дипфейков. Кажется, то, что мы раньше называли реальностью, просто перестало существовать. Это вызывает все больше опасений, которые связаны совсем не с технической сложностью ИИ-слопа, а с человеческим фактором. Так мы устроены: видим то, что хотим видеть, и верим в то, во что хотим верить, а потом ищем подтверждения своим убеждениям.

Глубоко укоренившийся недостаток того, как мы обрабатываем информацию, усугубляют дипфейки. С каждым днем создавать фото-, аудио- и видеоматериалы, искажающие реальность, становится все проще. Это новая эра обмана в масштабах и по характеру, непохожих на то, что мы видели раньше. «Это точно не ИИ? Я уже ничему не верю», — пишем мы друг другу каждый день в ответ на скриншоты и ссылки.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Дивиденды для преступников

Серьезная проблема заключается в том, как дипфейки дают политикам, мошенникам и преступникам свободу действий для отрицания подлинности реальных видеозаписей. Когда за несколько недель до президентских выборов в США 2016 года появились аудиозаписи, на которых кандидат Трамп хвастался тем, что может «хватать женщин за промежность», он вроде как извинился за свои высказывания, а потом сказал, что ролик был фейковым. Когда можно подделать что угодно, виновнику проще отрицать подлинность чего-либо.

GettyImages
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Американские профессора права Даниэль Цитрон и Роберт Чесни называют это «дивидендом лжецов». Когда журналисты пытаются доказать подлинность видеозаписи, это может иметь обратный эффект, поскольку порождает предположение о том, что в утверждении о ее подделке есть доля правды. Это и есть дивиденд, который получает преступник.

Наибольшая угроза доверию заключается не в обмане с помощью дипфейков. Опасность состоит в том, что мы будем считать почти всю информацию недостоверной. Исследователь СМИ Авив Овадья назвал это состояние ума «апатией к реальности». Дипфейки принципиально отличаются от традиционной дезинформации: они убедительны, масштабируемы и становятся все более доступными.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

ИИ масштабирует кризис дипфейков

Осенью 2025 года доцентка кафедры образовательных технологий в Университете Лаваль Надя Наффи сообщила, что угроза дезинформации и ложных данных, значительно усиленная искусственным интеллектом, входит в число главных мировых рисков. Грань между ИИ-контентом и контентом, созданным человеком, становится все более размытой. Однако ответ с нашей стороны по-прежнему носит лишь технический характер: обнаружение фейков, проверка источников, выявление манипуляций. Этого недостаточно.

Ученая озвучила прогноз, согласно которому рынок генеративного ИИ вырастет на 560% с 2025 по 2031 год и достигнет стоимости в 442 миллиарда долларов. По ее словам, сегодня 46% экспертов по борьбе с мошенничеством сталкиваются с использованием преступниками синтетических удостоверений личности, 37% — с голосовыми дипфейками, 29% — с таким видеоконтентом. В начале 2024 года мошенники использовали подобные технологии, чтобы выдать себя за финансового директора компании во время видеозвонка и заставить сотрудника сделать перевод на 25 миллионов долларов.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

К 2027 году генИИ увеличит потери от мошенничества втрое по сравнению с 2023-м. «Мы приближаемся к порогу синтетической реальности — точке, за которой люди больше не могут отличить подлинный контент от сфабрикованного без технологической помощи», — резюмирует Наффи. Исследования подтверждают, что люди не могут распознавать голоса, сгенерированные ИИ, часто воспринимая их как идентичные голосам реальных людей.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Взять ответственность на себя

Социальные сети усиливают эти угрозы за счет «эффекта иллюзорной правды», когда многократное воздействие информации делает ее более достоверной независимо от ее точности. Данные опросов в восьми странах показывают, что предварительное воздействие дипфейков повышает веру в дезинформацию. Потребители новостей в соцсетях более уязвимы перед этим, и эффект сохраняется независимо от когнитивных способностей.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Инструменты обнаружения сфабрикованных данных заметно отстают от технологий их создания в заведомо проигрышной гонке вооружений. Между тем, дивиденд лжеца создает двойную ловушку, где ни вера, ни неверие в доказательства не могут быть оправданы.

GettyImages

Одним из первых шагов в решении проблемы может стать развитие эпистемической субъектности — индивидуальной способности ответственно взаимодействовать со знаниями, когда традиционные доказательства становятся ненадежными. Эпистемическая субъектность означает создание личных рамок оценки, а не принятие заранее определенных критериев проверки.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

На практике это иногда выглядит как кодовые слова, принятые между родственниками для подтверждения личности друг друга во время созвонов. Для видеозвонков люди используют так называемый «доказательный вызов», прося собеседника выполнить определенное физическое действие, например, резко повернуть голову в сторону, что часто приводит к сбоям или появлению артефактов в дипфейке. Это демонстрирует эпистемическую активность в действии: стратегии взаимодействия в условиях неопределенности, а не просто пассивный анализ цифрового контента.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

8 очевидных признаков видеодипфейка

В 2020 году на платформе для соревнований по анализу данных Kaggle прошел конкурс Deepfake Detection Challenge (DFDC), посвященный поиску методов обнаружения дипфейков и манипуляций с файлами. Шесть лет назад размер премии для победителей составил миллион долларов. Очевидно, проблема стоит настолько остро, что технологические компании готовы серьезно вкладываться в ее решение.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Материалы конкурса стали основой для создания сайта Detect Fakes, объединяющего позитивный опыт и предоставляющий возможность узнать больше об дипфейках. Эксперты, связанные с ним, предлагают восемь вопросов, которые полезно задавать, в попытке распознать подделку. «Когда речь идет о медиаконтенте, созданном с помощью ИИ, нет единого отличительного признака, по которому можно распознать фейк. Тем не менее, существует несколько артефактов, на которые стоит обратить внимание», — заявляют они.

  1. Обратите внимание на лицо. Высококачественные манипуляции почти всегда представляют собой трансформацию.
  2. Обратите внимание на щеки и лоб. Кожа выглядит слишком гладкой или слишком морщинистой? Соответствует ли возраст кожи возрасту волос и глаз? Дипфейки могут быть несоответствующими по некоторым параметрам.
  3. Обратите внимание на глаза и брови. Появляются ли тени в тех местах, где вы ожидали бы их увидеть? Подделки могут не в полной мере воспроизводить естественные физические законы.
  4. Обратите внимание на очки. Есть ли блики? Слишком ли они сильны? Меняется ли угол бликов при движении человека?
  5. Обратите внимание на наличие или отсутствие растительности на лице. Выглядит ли она реалистично? Дипфейк-технологии могут добавлять или удалять усы, бакенбарды и бороду, но не всегда делают манипуляции естественными.
  6. Обратите внимание на родинки на лице. Выглядят ли они естественными?
  7. Обратите внимание на моргание глазами. Тот, кого вы видите на экране, может делать это слишком часто или, наоборот, слишком редко.
  8. Обратите внимание на движения рта. Некоторые дипфейки основаны на синхронизации губ, но часто их движения неестественны.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Да здравствуют опечатки и безграмотность!

Обнаружение текста, сгенерированного ИИ, важно по многим причинам. Это не просто не дает ввести в заблуждение вас, конкретного человека, но и предотвращает распространение дезинформации и поддерживает этические стандарты:

  • Академическая честность: оценка оригинальности исследований и результатов обучения.
  • Журналистское качество: борьба с преувеличениями и ложной информацией, проверка источников и цитат.
  • Защита брендов: сохранение уникального стиля, защита интеллектуальной собственности.
  • Онлайн-доверие: синтетический контент мешает поддерживать прозрачные отношения между пользователями.
  • Контроль за дезинформацией: препятствие распространению ложных утверждений, цифр, фактов и так далее.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Искусственный интеллект часто создает текст со специфическими лингвистическими паттернами. Люди проявляют свои индивидуальные особенности, в то время как ИИ стремится к осторожной, отточенной однородности. Сегодня есть довольно продвинутые онлайн-сервисы, способные распознавать фейки, и качество их работы будет только повышаться. Самостоятельно же вы можете обратить внимание на следующие признаки:

  1. Повторяющаяся структура: схожая длина предложений; повторяющиеся шаблоны придаточных предложений («В то время как X, Y также Z»).
  2. Расплывчатые обобщения: фразы-паразиты («в современном мире», «важно отметить»), заменяющие конкретные детали.
  3. Неестественные переходы: резкие смены темы; соединительная ткань без содержания.
  4. Галлюцинации: уверенные, но несуществующие отсылки, неверные даты или не соответствующие реальности статистические данные.
  5. Ровный голос: странно однообразный тон, который не выражает личную точку зрения, чрезмерно уклоняется от ответа или избегает конкретики.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Инструменты искусственного интеллекта сделали создание идеально отшлифованного текста доступным для любого. Однако они же лишили текст души. Опечатки, небрежная грамматика, отсутствие заглавных букв и откровенно агрессивное использование капса — все это признаки того, что реальный человек работал за клавиатурой.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В книге «На берегах Невы» Ирина Одоевцева цитирует диалог с Николаем Гумилевым, в котором поэт сообщает: «Но учился я скверно. Я почему-то "не помещал своего самолюбия в ученье". Я даже удивляюсь, как мне удалось окончить гимназию. Я ничего не смыслю в математике, да и писать грамотно не мог научиться. И горжусь этим. Своими недостатками следует гордиться. Это их превращает в достоинства».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

На возражение собеседницы о том, можно ли гордиться безграмотностью, Гумилев в его шутливой манере замечает: «Ах, всегда вы со своей плоской, трехмерной логикой. Моя безграмотность совсем особая. Ведь я прочел тысячи и тысячи книг, тут и попугай стал бы грамотным. Моя безграмотность свидетельствует о моем кретинизме. А мой кретинизм свидетельствует о моей гениальности. Поняли? Усвоили?»

Одоевцева отмечает, что он «нисколько не стеснялся своей безграмотности. Писал он действительно непостижимо неправильно». Мешает ли это нам спустя сто лет восхищаться его «Жирафом», «Капитанами» и «Заблудившимся трамваем»? Когда создание текста с помощью ИИ преращает его в дешевку, ценность настоящего текста только возрастает. Пусть и с пропущенным запятыми или неправильными «ться/тся».