Как вычислить дипфейк и не стать жертвой мошенников: главное о «дырах» в Sora 2

После выхода прорывной нейросети интернет заполнили тысячи фейковых видео.
Иван Ефимов
Иван Ефимов
Автор Men Today
Как вычислить дипфейк и не стать жертвой мошенников: главное о «дырах» в Sora 2
Freepik
После выхода Sora 2 соцсети заполнили фейковые видео со знаменитостями. Многие опасаются, что новая нейросеть открывает огромные возможности для злоумышленников. Как в таком случае защитить себя?
Содержание

Почему Sora 2 – прорыв в мире нейросетей

Когда Sora 2 вышла на рынок в конце сентября 2025-го, ее гиперреалистичные видео шокировали. В последние годы мы привыкли, что нейросетевые видео легко вычислить даже обывателю.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Но в Sora 2 случился прорыв: ролик, в котором кошка опрокидывает стеклянную банку, а лепестки плавают в лучах солнца и видны детали шерсти, выглядел реалистичным, пока не появилась надпись «Сгенерировано Sora 2».

Нажми и смотри
Нажми и смотри

Главное достижение Sora 2 — ее способность воспроизводить физику реального мира. Нейросеть может сгенерировать сальто гимнастки с естественными сгибами в коленях или капли дождя, оставляющие следы на зонте. Sora 2 даже добавляет синхронизированный звук, например, тихое позвякивание велосипедной цепи или звук играющего за стенкой телевизора.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

OpenAI называет это «моментом GPT-3.5» для генерации видео — точка, после которой ролики будут все более реалистичными. Уже сейчас всех удивляет внимание Sora 2 к деталям: при движении пуговицы на одежде остаются на месте, а стрелки часов двигаются правильно.

Почему реализм Sora 2 пугает людей

Реализм Sora 2 вызывает все больше тревоги, ведь люди используют его для создания дипфейков. Нейросеть запрещает создавать видео с реальными людьми, но делает исключение для «исторических» личностей, а проще — мертвых.

Поэтому соцсети заполнили абсурдные юмористические видео: в одном Альберт Эйнштейн дерется с Николой Теслой в октагоне UFC, в другом Стивен Хокинг появляется на ринге WWE, где его сбивают с инвалидного кресла мускулистые рестлеры.

Иронично, что Хокинг, критиковавший искусственный интеллект при жизни, стал главной звездой дипфейков. Их полно в соцсетях: то Хокинга затоптал разъяренный бык, то напал крокодил и утащил в реку, то сам ученый упал со скейта, а его коляска задымилась.

Хватает и других «шедевров»: читающий рэп Майкл Джексон, Тупак Шакур, гуляющий по Северной Корее с Ким Чен Иром, Джон Кеннеди, рассуждающий о скидках в Черную пятницу.

Глупо морализаторствовать — некоторые дипфейки смешные. Но вряд ли для семей тех, над чьими образами сейчас глумятся в соцсетях. К тому же смешно, пока не задумаешься: а что будет, если дипфейки создадут не для шутки, а для более опасных целей?

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Какие бывают дипфейки и чем они опасны

Специалисты выделяют два основных типа дипфейков:

  • Полностью сгенерированные дипфейки: в них все изображение (обычно лицо или сцена) создается с нуля.
  • Частично обработанные дипфейки: в них редактируются только определенные области, например, глаза или рот.

Программисты создали специальные модели, позволяющие не на глаз, а с помощью компьютера проанализировать фото или видео, чтобы определить, создано ли оно с помощью ИИ.

До выхода Sora 2 считалось, что такие модели показывают отличные результаты: против полностью сгенерированных дипфейков — 96% точности, против обработанных — 80%. Но уже тогда отмечалось, что точность падает до 20-25%, если применяются нестандартные способы генерации, которые выбиваются из системы.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Freepik

Многие боятся, что уже через несколько лет нейросети станут настолько мощными, что отличить реальное видео от фейка будет трудно не только человеку, но и компьютеру. И тогда мы окажемся в мире постправды, где нельзя доверять ничему.

Уже сейчас дипфейки представляют огромную угрозу, поэтому большинство стран экстренно ужесточает законодательство в сфере искусственного интеллекта. Нейросети в руках злоумышленников могут причинить вред не только обычным людям, но и целым государствам, приводя к эпидемиям, революциям и даже войнам.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Вот лишь несколько примеров, как дипфейки могут навредить огромным массам людей:

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
  • Политические манипуляции: во время выборов широко распространялись фейковые видео, на которых лидеры говорили вещи, которые никогда не произносили.
  • Финансовое мошенничество в компании: голосовые и видеообращения от имени руководителей, используемые в мошеннических схемах.
  • Ущерб репутации: сфабрикованные видео с участием знаменитостей, призванные унизить или ввести в заблуждение.
  • Социальная инженерия: звонки или видео, созданные искусственным интеллектом, которые убеждают людей перевести деньги или раскрыть свои персональные данные.

В каждом примере одна и та же проблема: подрыв доверия. В мире, где любое видео может оказаться фейком, ценность подлинного контента резко падает.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как распознать дипфейк: главные советы

Суровая реальность 2025 года: если смотрите видео в соцсетях, которое пытается донести до вас какую-то мысль, особенно политическую, обязательно изучайте его на подлинность.

Зарубежные соцсети заполонили нейросетевые видео политического контекста, возбуждающие ненависть к определенным социальным группам. Они набирают миллионы просмотров и влияют на взгляды людей.

Поэтому при просмотре видео старайтесь понять, кто его автор. Если это журналист или блогер, который имеет хорошую репутацию и не прячет лицо, вероятность, что он распространяет фейки невысока. Если вы видите рилс от анонима, где в вас возбуждают ненависть к кому-то, то приглядывайтесь к деталям.

Опыт показывает, что пока обмануть людей очень легко. В октябре завирусились фото и видео, как Барак Обама выступает диджеем в Аризоне. Люди поверили в это, пока автор не признался, что всех обманул ради социального эксперимента.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Обама не выступал диджеем, но люди поверили
Обама не выступал диджеем, но люди поверили @thelensofpee / Соцсети
@thelensofpee / Соцсети
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Согласно исследованию Университета Гонконга, проведенному в 2024 году, выявить дипфейк можно по трем ключевым критериям.

Во-первых, это внешний вид. Даже в видео Sora 2 заметны размытые лица и деформированные объекты. Вы можете создать стол, но при ближайшем рассмотрении заметите неестественную вмятину, которой не было бы на настоящем дереве.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По такому критерию компьютер признал фейком видео кипящего чайника. На первый взгляд, все достоверно. Но программа заметила, что пузыри воздуха выглядят искусственно.

Нажми и смотри
Нажми и смотри

Во-вторых, это движение. Обращайте внимание на любое противоестественное движение при ходьбе или жестикуляции. В Sora 2 головы животных иногда трясутся так, что это противоречит законам физики.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Что касается людей, то изучайте мимику: если вы не видите эмоций в глазах, а лицо кажется пластмассовым, то, возможно, перед вами дипфейк.

В-третьих, это геометрия. На видео Sora 2 можно увидеть, как люди в одной и той же сцене внезапно меняют размер, что противоречит логике реального мира. Смотрите на предметы рядом с людьми и оценивайте их с позиции соответствия пропорциям.

Как в Sora 2 защищают от дипфейков

OpenAI заверяет, что попытки создать видео с участием политиков, знаменитостей или частных лиц блокируются. Конфиденциальные запросы, связанные с выборами, дезинформацией или явным выдаванием себя за другое лицо, запускают автоматическую защиту.

Кроме того, каждое видео Sora 2 содержит цифровые водяные знаки и теги метаданных. Эти идентификаторы невидимы для зрителей, но распознаются платформами и аудиторами.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Freepik

Помимо фильтрации и водяных знаков, Sora 2 использует двухэтапную системы проверки контента. Компьютер анализирует сгенерированные видео в режиме реального времени, выявляя вредоносный контент. В пограничных случаях в дело вступают модераторы — люди, которые принимают взвешенные решения там, где компьютер может дать сбой.

Насколько такая система эффективна? Даже в самой компании признают, что злоумышленники будут искать способы обмануть фильтры. Они могут найти удалить или исказить встроенные идентификаторы.

Кроме того, к тому времени, когда вредоносное видео будет помечено соцсетями, оно уже может стать вирусным. Поэтому правовое регулирование ужесточается по всему миру, а к платформам предъявляются все более серьезные требования.