Более 700 знаменитостей и общественных деятелей — от принца Гарри и Меган Маркл до Стива Бэннона и Ричарда Брэнсона — подписали открытое письмо, призывающее ввести запрет на разработку сверхразумного искусственного интеллекта. Активисты обеспокоены тем, что в настоящее время не существует эффективных мер безопасности для этого. Они призывают дождаться момента, когда наука и самая широкая общественность поддержат подобные технологии.
«Второго шанса не будет»: принц Гарри, Ричард Брэнсон и еще 700 известных людей призывают запретить сверхразумный ИИ

Беспрецедентная коалиция против ИИ

Письмо, инициатором и координатором которого выступил Институт будущего жизни (FLI), представляет собой документ, подписанный участниками очень разнообразной коалиции, когда-либо собранной вокруг вопросов регулирования искусственного интеллекта. Так, среди подписантов пять лауреатов Нобелевской премии, сооснователь Apple Стив Возняк, британский миллиардер Ричард Брэнсон и бывший председатель Объединенного комитета начальников штабов Майк Маллен, а также многие представители индустрии развлечений от актера Джозефа Гордона-Левитта до музыканта will.i.am.
«Мы призываем к запрету на развитие сверхразума, который не должен быть снят до тех пор, пока не будет широкого научного консенсуса, что это будет сделано безопасно и контролируемо, и сильной общественной поддержки», — заявили подписанты.
Преодоление политических разногласий
Короткое письмо объединило действительно очень разных людей, представляющих невероятный политический спектр, от принца Гарри и эксперта по внешней политике от Демократической партии Сьюзан Райс до консервативных комментаторов Стива Бэннона и Гленна Бека. Такая всеобъемлемость отражает стратегию Института будущего жизни по взаимодействию с администрацией президента Дональда Трампа, несмотря на то, что Белый дом стремится ослабить ограничения на разработку ИИ.
В сопроводительном письме принц Гарри подчеркнул важность запрета: «В будущем ИИ должен служить человечеству, а не заменять его. Я считаю, что истинным испытанием прогресса будет не то, как быстро мы движемся, а то, насколько мудро мы направляем свой курс. Второго шанса не будет».

Подпись Джозефа Гордона-Левитта сопровождалась следующим сообщением: «Да, нам нужны конкретные инструменты ИИ, которые помогут лечить болезни, укреплять национальную безопасность и так далее. Но должен ли ИИ также подражать людям, грумить наших детей, превращать нас всех в наркоманов и зарабатывать миллиарды долларов на рекламе? Большинство людей этого не хотят. Но именно это имеют в виду крупные технологические компании, когда говорят о создании "сверхразума"».
Результаты опроса, опубликованные вместе с письмом, показывают: 64% американцев считают, что сверхразум «не следует разрабатывать, пока его безопасность и управляемость не будут доказаны», и только 5% считают, что его следует разрабатывать как можно быстрее. «Этими разработками занимается небольшое число очень богатых компаний, и очень, очень большое число людей предпочли бы пойти другим путем», — подчеркнул Энтони Агирре, исполнительный директор FLI.
Молчание технологической индустрии
Примечательно, что среди подписантов отсутствуют генеральные директора крупных ИИ-компаний, стремящихся к созданию сверхразума. Сэм Альтман из OpenAI, Демис Хассабис из Google и Марк Цукерберг из Meta* не подписали письмо, несмотря на предыдущее участие в обсуждениях безопасности отрасли. Только один нынешний сотрудник OpenAI — технический специалист Лео Гао — добавил свое имя.

Заявление нацелено на технологических гигантов, которые «соревнуются друг с другом в создании формы искусственного интеллекта, предназначенной для превосходства над людьми во многих задачах». Макс Тегмарк, президент Института будущего жизни и профессор Массачусетского технологического института, подчеркнул конкурентное давление, с которым сталкиваются ИИ-компании: «Я действительно сочувствую им, честно говоря, потому что они настолько застряли в этой гонке на выживание, что просто чувствуют непреодолимое давление продолжать движение и не дать другому парню их обогнать».
Это второе столь крупное письмо FIT по вопросам ИИ с 2023 года. Два года назад институт выступил с призывом к шестимесячной паузе в разработке продвинутого ИИ и собрал более тысячи подписей. Однако это не помогло замедлить темп развития индустрии.
*организация признана экстремистской и запрещена на территории России.
