После негативной реакции на дипфейки знаменитостей, которые заполонили социальные сети, компания OpenAI объявила, что усилит меры защиты. Речь идет о приложении Sora 2 для создания видеороликов с помощью искусственного интеллекта. Сообщается, что разработчик достиг соглашения с актером Брайаном Крэнстоном, SAG-AFTRA (профсоюз, представляющий интересы актеров, теле- и радиоведущих, а также других работников сферы развлечений) и крупными агентствами по работе с талантами.
Никаких Брайана Крэнстона и Мартина Лютера Кинга: OpenAI урегулировала споры из-за дипфейков, созданных в Sora 2

OpenAI защитит артистов от дипфейков в Sora 2
Компания, занимающаяся технологиями искусственного интеллекта, выпустила совместное заявление с Крэнстоном, Гильдией киноактеров — Американской федерацией работников телевидения и радио, United Talent Agency, Creative Artists Agency и Ассоциацией агентств по работе с талантами. Документ стал подтверждением «продуктивного сотрудничества» в области защиты голосов и изображений артистов. Это произошло через три недели после запуска Sora 2, когда приложение быстро стало одним из самых загружаемых.
Брайан Крэнстон стал лицом ответа индустрии
Актер Брайан Крэнстон, который наиболее известен по роли в сериале «Во все тяжкие», обратился в SAG-AFTRA после того, как обнаружил, что его голос и внешность были использованы в видео Sora 2 без разрешения. Известно, что это произошло еще во время первоначального запуска программы, когда она была доступна только по приглашениям.
«Я был глубоко обеспокоен не только за себя, но и за всех артистов, чьи работы и личности могут быть использованы неправомерно таким образом», — заявил Брайан Крэнстон.

В OpenAI выразили сожаление по поводу того, что компания назвала «непреднамеренными генерациями», и взяли на себя обязательство усилить меры защиты в отношении голоса и внешности. Компания заявила, что придерживается политики согласия, требующей явного разрешения перед использованием чьего-либо голоса или внешности. Однако, как показала практика, в случае с Крэнстоном применение этой политики явно провалилось.
Видео с Мартином Лютером Кингом-младшим
Продолжая тему, напомним, что на прошлой неделе OpenAI была вынуждена приостановить генерацию видео с Мартином Лютером Кингом-младшим. Это произошло после того, как наследники общественного деятеля и лидера движения за гражданские права пожаловались на его «неуважительные изображения». Пользователи создавали в Sora 2 видео, показывающие Кинга в расистских сюжетах, а также ролики, изображающие его издающим физиологические звуки во время произнесения речи «У меня есть мечта».
«Некоторые пользователи создали неуважительные изображения доктора Кинга», — заявили представители OpenAI, соглашаясь с наследниками. Дочь активиста Бернис Кинг публично попросила людей прекратить присылать ей ИИ-сгенерированные видео с ее отцом. Это перекликается с аналогичными призывами Зельды Уильямс, дочери покойного комика Робина Уильямса.
Поддержка нового закона со стороны отрасли
Все стороны, участвующие в соглашении, заключенном в понедельник, выразили поддержку закону No Fakes, который ожидает принятия на федеральном уровне. Он призван защитить артистов от несанкционированного цифрового копирования. «OpenAI глубоко привержена защите исполнителей от незаконного присвоения их голоса и внешнего облика», — отметил Сэм Альтман, генеральный директор компании.

Президент SAG-AFTRA Шон Остин позитивно отозвался о достигнутом соглашении, предупредив при этом, что «Брайан Крэнстон — один из бесчисленных исполнителей, чей голос и внешний облик находятся под угрозой массового незаконного присвоения посредством технологий копирования». В профсоюзе подчеркнули, что протоколы с явным согласием — это «единственно приемлемый способ ведения бизнеса» по мере развития технологий искусственного интеллекта.
Как видите, эта продолжающаяся бурная полемика подчеркивает противоречия между компаниями, работающими с ИИ, и Голливудом по вопросам прав интеллектуальной собственности. Сторонам предстоит решить еще много вопросов, ключевым из которых остается защита авторских прав. По текущей же проблеме OpenAI изначально требовала от правообладателей явного отказа от использования их собственности, но за три недели все изменилось, и теперь компания перешла к требованию явного согласия.
