Когда Sora 2 вышла на рынок в конце сентября 2025-го, ее гиперреалистичные видео шокировали. В последние годы мы привыкли, что нейросетевые видео легко вычислить даже обывателю.
Как вычислить дипфейк и не стать жертвой мошенников: главное о «дырах» в Sora 2

Почему Sora 2 – прорыв в мире нейросетей
Но в Sora 2 случился прорыв: ролик, в котором кошка опрокидывает стеклянную банку, а лепестки плавают в лучах солнца и видны детали шерсти, выглядел реалистичным, пока не появилась надпись «Сгенерировано Sora 2».

Главное достижение Sora 2 — ее способность воспроизводить физику реального мира. Нейросеть может сгенерировать сальто гимнастки с естественными сгибами в коленях или капли дождя, оставляющие следы на зонте. Sora 2 даже добавляет синхронизированный звук, например, тихое позвякивание велосипедной цепи или звук играющего за стенкой телевизора.
OpenAI называет это «моментом GPT-3.5» для генерации видео — точка, после которой ролики будут все более реалистичными. Уже сейчас всех удивляет внимание Sora 2 к деталям: при движении пуговицы на одежде остаются на месте, а стрелки часов двигаются правильно.
Почему реализм Sora 2 пугает людей
Реализм Sora 2 вызывает все больше тревоги, ведь люди используют его для создания дипфейков. Нейросеть запрещает создавать видео с реальными людьми, но делает исключение для «исторических» личностей, а проще — мертвых.
Поэтому соцсети заполнили абсурдные юмористические видео: в одном Альберт Эйнштейн дерется с Николой Теслой в октагоне UFC, в другом Стивен Хокинг появляется на ринге WWE, где его сбивают с инвалидного кресла мускулистые рестлеры.

Иронично, что Хокинг, критиковавший искусственный интеллект при жизни, стал главной звездой дипфейков. Их полно в соцсетях: то Хокинга затоптал разъяренный бык, то напал крокодил и утащил в реку, то сам ученый упал со скейта, а его коляска задымилась.

Хватает и других «шедевров»: читающий рэп Майкл Джексон, Тупак Шакур, гуляющий по Северной Корее с Ким Чен Иром, Джон Кеннеди, рассуждающий о скидках в Черную пятницу.

Глупо морализаторствовать — некоторые дипфейки смешные. Но вряд ли для семей тех, над чьими образами сейчас глумятся в соцсетях. К тому же смешно, пока не задумаешься: а что будет, если дипфейки создадут не для шутки, а для более опасных целей?
Какие бывают дипфейки и чем они опасны
Специалисты выделяют два основных типа дипфейков:
- Полностью сгенерированные дипфейки: в них все изображение (обычно лицо или сцена) создается с нуля.
- Частично обработанные дипфейки: в них редактируются только определенные области, например, глаза или рот.
Программисты создали специальные модели, позволяющие не на глаз, а с помощью компьютера проанализировать фото или видео, чтобы определить, создано ли оно с помощью ИИ.
До выхода Sora 2 считалось, что такие модели показывают отличные результаты: против полностью сгенерированных дипфейков — 96% точности, против обработанных — 80%. Но уже тогда отмечалось, что точность падает до 20-25%, если применяются нестандартные способы генерации, которые выбиваются из системы.

Многие боятся, что уже через несколько лет нейросети станут настолько мощными, что отличить реальное видео от фейка будет трудно не только человеку, но и компьютеру. И тогда мы окажемся в мире постправды, где нельзя доверять ничему.
Уже сейчас дипфейки представляют огромную угрозу, поэтому большинство стран экстренно ужесточает законодательство в сфере искусственного интеллекта. Нейросети в руках злоумышленников могут причинить вред не только обычным людям, но и целым государствам, приводя к эпидемиям, революциям и даже войнам.
Вот лишь несколько примеров, как дипфейки могут навредить огромным массам людей:
- Политические манипуляции: во время выборов широко распространялись фейковые видео, на которых лидеры говорили вещи, которые никогда не произносили.
- Финансовое мошенничество в компании: голосовые и видеообращения от имени руководителей, используемые в мошеннических схемах.
- Ущерб репутации: сфабрикованные видео с участием знаменитостей, призванные унизить или ввести в заблуждение.
- Социальная инженерия: звонки или видео, созданные искусственным интеллектом, которые убеждают людей перевести деньги или раскрыть свои персональные данные.
В каждом примере одна и та же проблема: подрыв доверия. В мире, где любое видео может оказаться фейком, ценность подлинного контента резко падает.
Как распознать дипфейк: главные советы
Суровая реальность 2025 года: если смотрите видео в соцсетях, которое пытается донести до вас какую-то мысль, особенно политическую, обязательно изучайте его на подлинность.
Зарубежные соцсети заполонили нейросетевые видео политического контекста, возбуждающие ненависть к определенным социальным группам. Они набирают миллионы просмотров и влияют на взгляды людей.
Поэтому при просмотре видео старайтесь понять, кто его автор. Если это журналист или блогер, который имеет хорошую репутацию и не прячет лицо, вероятность, что он распространяет фейки невысока. Если вы видите рилс от анонима, где в вас возбуждают ненависть к кому-то, то приглядывайтесь к деталям.
Опыт показывает, что пока обмануть людей очень легко. В октябре завирусились фото и видео, как Барак Обама выступает диджеем в Аризоне. Люди поверили в это, пока автор не признался, что всех обманул ради социального эксперимента.


Согласно исследованию Университета Гонконга, проведенному в 2024 году, выявить дипфейк можно по трем ключевым критериям.
Во-первых, это внешний вид. Даже в видео Sora 2 заметны размытые лица и деформированные объекты. Вы можете создать стол, но при ближайшем рассмотрении заметите неестественную вмятину, которой не было бы на настоящем дереве.
По такому критерию компьютер признал фейком видео кипящего чайника. На первый взгляд, все достоверно. Но программа заметила, что пузыри воздуха выглядят искусственно.

Во-вторых, это движение. Обращайте внимание на любое противоестественное движение при ходьбе или жестикуляции. В Sora 2 головы животных иногда трясутся так, что это противоречит законам физики.
Что касается людей, то изучайте мимику: если вы не видите эмоций в глазах, а лицо кажется пластмассовым, то, возможно, перед вами дипфейк.
В-третьих, это геометрия. На видео Sora 2 можно увидеть, как люди в одной и той же сцене внезапно меняют размер, что противоречит логике реального мира. Смотрите на предметы рядом с людьми и оценивайте их с позиции соответствия пропорциям.
Как в Sora 2 защищают от дипфейков
OpenAI заверяет, что попытки создать видео с участием политиков, знаменитостей или частных лиц блокируются. Конфиденциальные запросы, связанные с выборами, дезинформацией или явным выдаванием себя за другое лицо, запускают автоматическую защиту.
Кроме того, каждое видео Sora 2 содержит цифровые водяные знаки и теги метаданных. Эти идентификаторы невидимы для зрителей, но распознаются платформами и аудиторами.

Помимо фильтрации и водяных знаков, Sora 2 использует двухэтапную системы проверки контента. Компьютер анализирует сгенерированные видео в режиме реального времени, выявляя вредоносный контент. В пограничных случаях в дело вступают модераторы — люди, которые принимают взвешенные решения там, где компьютер может дать сбой.
Насколько такая система эффективна? Даже в самой компании признают, что злоумышленники будут искать способы обмануть фильтры. Они могут найти удалить или исказить встроенные идентификаторы.
Кроме того, к тому времени, когда вредоносное видео будет помечено соцсетями, оно уже может стать вирусным. Поэтому правовое регулирование ужесточается по всему миру, а к платформам предъявляются все более серьезные требования.
