Казнить, нельзя помиловать? Эксперт предупреждает: ИИ сможет самостоятельно принимать решение убивать людей
Британский и канадский ученый-компьютерщик Джеффри Хинтон, известный как «крестный отец искусственного интеллекта» (у ИИ много отцов), в интервью программе BBC Newsnight заявил, что нет никаких сомнений в том, что в ближайшее время человек перестанет быть умнейшим существом на планете. Искусственный интеллект заберет у нас это звание.
В этом прогнозе почти никто не сомневается: ни пессимисты, ни оптимисты. Разница лишь в том, что оптимисты ждут этого события с радостью — «искусственный интеллект станет толчком для развития человечества», а вот пессимисты ничего хорошего в этом не видят: ИИ обязательно уничтожит людей, как конкурирующий вид.
Джеффри Хинтон на протяжении большей части своей жизни наверняка был оптимистом. Его вклад в развитии ИИ неоценим. Однако в последнее время он сильно разочаровался в деле всей своей жизни и с большой опаской смотрит в будущее. Его беспокоит, что искусственный интеллект начали активно использовать для ведения боевых действий. Пусть современные модели не так хороши и еще нет достаточного количества задач, которые можно взвалить на ИИ, очевидно одно: страна, в которой появится действительно сильный искусственный интеллект, получит смертельное оружие. На уровне ядерного и даже мощнее.
Но еще сильнее Хинтона пугает то, что интеллект сам начнет принимать решение об убийстве других людей. Согласно Айзеку Азимову, существует несколько законов робототехники.
В частности робот (или ИИ) не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. Пусть этот закон и сформулировал писатель-фантаст, работы в области искусственного интеллекта рассматривают Законы роботехники как идеал будущего. Чем более сложными будут становиться работы, тем больше высказывается заинтересованность в разработке руководящих принципов и мер безопасности для них или ИИ.
Но многие исследователи (вероятно, среди них есть и Джеффри Хинтон) сомневаются, что действительно сильный ИИ, чьи возможности превосходят совокупные возможности всего человечества, будет ограничен законами. Ему наверняка удастся их обойти, и тогда человечество ждет незавидная судьба.
Так другой видный теоретик в области ИИ — Элиезер Юдковский, был одним из немногих видных деятелей в области высоких технологий, который не стал подписывать открытое письмо с просьбой ограничить изучение искусственного интеллекта. Потому что считал, что время упущено: все разработки нужно прекратить уже сегодня иначе завтра станет слишком поздно. Прав ли он? Мы узнаем совсем скоро: OpenAI уже создали ChatGPT-5, который оказался значительно мощнее прошлой версии.