Власти взялись за дипфейки: в России хотят блокировать созданный ИИ мошеннический контент

Сможет ли новый закон победить мошенничество с использованием искусственного интеллекта?
Игорь Барышев
Игорь Барышев
Власти взялись за дипфейки: в России хотят блокировать созданный ИИ мошеннический контент
Unsplash

Искусственный интеллект (ИИ), несмотря на все свои преимущества, становится все более изощренным инструментом в руках мошенников. Дипфейки, поддельные голоса, фейковый контент – все это создается сегодня ИИ и затем используется преступниками для обмана и манипуляций.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В связи с этим российские власти готовят ответ на этот вызов. Как сообщают «Известия», в Госдуме разрабатывается пакет поправок к закону «Об информации», направленный на выявление и блокировку мошеннического контента, созданного с помощью ИИ.

Россиян накроет волна дипфейков: пострадает каждый второй

Мошенники создали дипфейк популярного актера: из-за него женщины бросают мужей и отдают все деньги

Любовь с подвохом: как дипфейки обманывают россиян на сайтах знакомств​​​​​​​
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Депутаты предлагают не ждать решения суда, а блокировать подозрительные материалы незамедлительно. Зампред комитета ГД по информационной политике Андрей Свинцов подтвердил, что законопроект комплексно подойдет к регулированию ИИ, включая маркировку и блокировку вредоносного контента.

В борьбу с ИИ-мошенничеством планируется активно вовлекать специализированные IT-компании, разрабатывающие системы защиты от киберугроз. По словам основателя Совета блогеров Валерии Рытвиной, российские IT-специалисты обладают высокой квалификацией, и совместные усилия государства, экспертов и общественности позволят эффективно противостоять новым угрозам.

Как отметила секретарь Союза журналистов России Юлия Загитова, распространение фейков, созданных ИИ, в свою очередь подрывает доверие к информации и создает реальные риски для людей. «И здесь важна прежде всего просветительская работа, чтобы пользователи могли самостоятельно распознавать фейки и знать, куда обращаться за помощью», — подчеркнула Загитова.

Однако, и блокировка контента – весьма тонкий момент. По словам экспертов, важно четко определить, что считать «мошенническим ИИ-контентом», чтобы не пострадали добросовестные авторы.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Необходимо создать прозрачный механизм экспертизы с участием компетентных специалистов. Кроме того, важно не только блокировать фейки, но и развивать цифровую грамотность пользователей, маркировать контент, созданный ИИ, и поддерживать достоверные источники информации», — предложила управляющий партнер агентства Heads'made Ярослава Мешалкина.

Unsplash

Кстати, проблема ИИ-мошенничества уже коснулась различных областей, включая рынок недвижимости. Юристы уже приводят примеры, когда злоумышленники использовали ИИ для подделки голосов и изображений, чтобы ввести в заблуждение владельцев недвижимости и совершить с ними мошеннические действия.

Так что актуальность и необходимость разработки эффективных мер противодействия ИИ-мошенничеству прямо сейчас уже актуальна.