Искусственный интеллект (ИИ), несмотря на все свои преимущества, становится все более изощренным инструментом в руках мошенников. Дипфейки, поддельные голоса, фейковый контент – все это создается сегодня ИИ и затем используется преступниками для обмана и манипуляций.
Власти взялись за дипфейки: в России хотят блокировать созданный ИИ мошеннический контент

В связи с этим российские власти готовят ответ на этот вызов. Как сообщают «Известия», в Госдуме разрабатывается пакет поправок к закону «Об информации», направленный на выявление и блокировку мошеннического контента, созданного с помощью ИИ.

Депутаты предлагают не ждать решения суда, а блокировать подозрительные материалы незамедлительно. Зампред комитета ГД по информационной политике Андрей Свинцов подтвердил, что законопроект комплексно подойдет к регулированию ИИ, включая маркировку и блокировку вредоносного контента.
В борьбу с ИИ-мошенничеством планируется активно вовлекать специализированные IT-компании, разрабатывающие системы защиты от киберугроз. По словам основателя Совета блогеров Валерии Рытвиной, российские IT-специалисты обладают высокой квалификацией, и совместные усилия государства, экспертов и общественности позволят эффективно противостоять новым угрозам.
Как отметила секретарь Союза журналистов России Юлия Загитова, распространение фейков, созданных ИИ, в свою очередь подрывает доверие к информации и создает реальные риски для людей. «И здесь важна прежде всего просветительская работа, чтобы пользователи могли самостоятельно распознавать фейки и знать, куда обращаться за помощью», — подчеркнула Загитова.
Однако, и блокировка контента – весьма тонкий момент. По словам экспертов, важно четко определить, что считать «мошенническим ИИ-контентом», чтобы не пострадали добросовестные авторы.
«Необходимо создать прозрачный механизм экспертизы с участием компетентных специалистов. Кроме того, важно не только блокировать фейки, но и развивать цифровую грамотность пользователей, маркировать контент, созданный ИИ, и поддерживать достоверные источники информации», — предложила управляющий партнер агентства Heads'made Ярослава Мешалкина.

Кстати, проблема ИИ-мошенничества уже коснулась различных областей, включая рынок недвижимости. Юристы уже приводят примеры, когда злоумышленники использовали ИИ для подделки голосов и изображений, чтобы ввести в заблуждение владельцев недвижимости и совершить с ними мошеннические действия.
Так что актуальность и необходимость разработки эффективных мер противодействия ИИ-мошенничеству прямо сейчас уже актуальна.