В России хотят ввести штрафы за ИИ: фейковые видео обойдутся в 5000 рублей

Инициативу уже направили в Минцифры.
Марина Емельянцева
Марина Емельянцева
В России хотят ввести штрафы за ИИ: фейковые видео обойдутся в 5000 рублей
Freepik

Популярность видео, сгенерированных нейросетями, уже вскоре может сойти на нет. Власти России рассматривают вопрос о введении штрафов за распространение ИИ-роликов. Какой контент может попасть под запрет и что еще известно об инициативе, рассказал Telegram-канал SHOT.

По его данным, предложение о введении штрафов за публикацию и распространение фейковых видео, созданных при помощи искусственного интеллекта, уже направлено в Министерство цифрового развития РФ. Автором идеи выступил депутат от партии «Новые люди» Амир Хамитов.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Freepik

Как сообщает канал со ссылкой на парламентария, наказания в отношении создателей сгенерированных роликов будут применяться только в тех случаях, когда удастся доказать, что распространение подобных видео привело к негативным последствиям. Речь идет, к примеру, о роликах с ненастоящими авариями и другим шок-контентом, который может ввести в заблуждение сотрудников правоохранительных органов. «Службы потратят время [на проверку], деньги — а значит, автор контента должен понести наказание», — поясняет SHOT.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Хамитов предлагает ввести за публикацию ИИ-фейков административную ответственность. Если вина создателя такого контента будет доказана, ему придется выложить из своего кармана от 1000 до 5000 рублей. Пока неизвестно, получила ли инициатива поддержку со стороны коллег Хамитов по Госдуме. О реакции Минцифры на это предложение также еще не сообщалось.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Стоит отметить, что в некоторых нейросетях сгенерированные видео по умолчанию маркируются: так, одна из самых реалистичных ИИ-моделей Sora 2 автоматически ставит вотермарку на ролике, чтобы люди были в курсе «искусственного» происхождения контента. Однако в большинстве случаев водяной знак легко убирается при помощи других нейросетей и редакторов, а затем контент выдается за реальный.

При этом публикация сгенерированных ИИ видео нередко приводит к казусам в реальной жизни. Ранее мы рассказывали историю пожилой пары из Малайзии, которая провела много часов в дороге ради посещения популярного курорта, о котором узнала из интернета. Однако по прибытии в пункт назначения пенсионеры выяснили, что заинтересовавшего их места никогда не существовало.

Человечеству пришел конец? ИИ научился лгать, плести интриги и угрожать создателям

Ненадежные чат-боты: как ошибки ИИ портят интернет и нашу жизнь?

Последние обновления OpenAI сделали личность ChatGPT невыносимой: как это исправить и настроить чат-бота под себя?

Речь шла о живописной канатной дороге, «реклама» которой распространилась в местном сегменте соцсетей. В видео телеведущая в красках описывала маршрут, а также сама прокатилась в вагончике, продемонстрировав невероятные пейзажи, и взяла интервью у других восторженных пассажиров. На деле же выяснилось, что все это – лишь плод работы нейросети, который выглядел настолько реалистично, что у малайзиских супругов не возникло никаких сомнений в подлинности ролика.