Эксперты по искусственному интеллекту предупреждают о резком росте дипфейк-атак в России. Согласно прогнозам, к концу 2025 года каждый второй россиянин может столкнуться с этой киберугрозой.
Россиян накроет волна дипфейков: пострадает каждый второй

Как сообщают «Известия» со ссылкой на специалистов MTS AI, количество подобных атак может достигнуть десятков миллионов в течение ближайших трех лет. Для сравнения: всего два года назад с поддельными аудио- и видеоматериалами сталкивались лишь 10% пользователей интернета. Однако, теперь масштабы угрозы стали куда серьезнее.

Дипфейки – это фото- и видеоматериалы, где голос или внешность человека искусственно изменены с помощью нейросетей. Но если еще несколько лет это было заметно почти сразу, то современные технологии позволяют создавать настолько убедительные имитации, что отличить их от реальных записей становится сложно даже опытным пользователям.
Мошенники же умело эти пользуются, создавая дипфейки с различными эмоциональными сценариями, такими как «ребенок, попавший в беду» или «коллега, срочно требующий перевода денег», и таким образом выманивают у доверчивых жертв порой очень крупные суммы денег.
В 2024-2025 годах основной угрозой стали поддельные видеокружки и голосовые сообщения в мессенджерах. Популярность этих инструментов среди злоумышленников обусловлена отсутствием надежных механизмов проверки подлинности, в отличие от телефонных звонков, где существуют определители номера и другие защитные системы. Мессенджеры пока не позволяют определить источник таких материалов и установить, созданы ли они непосредственно в приложении или сгенерированы сторонними программами.
К 2026 году специалисты по ИИ и вовсе прогнозируют появление дипфейк-звонков в реальном времени, имитирующих голоса знакомых или коллег, что значительно усложнит распознавание мошенничества.
Действительно, технологии создания дипфейков становятся все более доступными и совершенными. Если ранее для создания убедительных подделок требовались специальные навыки и значительное время, то сегодня этот процесс упростился настолько, что практически любой человек может освоить его.
Качество фальшивых аудио- и видеоматериалов постоянно улучшается, что в ближайшем будущем может сделать их практически неотличимыми от оригиналов.

Ранее МВД России назвало признаки, помогающие распознать дипфейк:
- неестественная интонация
- редкое моргание
- несоответствие артикуляции речи движениям губ
При обнаружении «роботизированного» тона голоса специалисты рекомендуют провести дополнительную проверку личности собеседника, используя альтернативные каналы связи.
Дипфейки также используются в мошеннических схемах на сайтах знакомств, где злоумышленники, используя поддельные голосовые сообщения и маски, выманивают у жертв крупные суммы денег.