Возможно, вы свысока разговариваете с ИИ, но Джеффри Хинтон, крестный отец ИИ, уверяет, что, когда дело доходит до выживания в условиях сверхразума, нам не следует вести себя как хозяева — нам следует вести себя как дети. Выступая во вторник на конференции Ai4 в Лас-Вегасе, ученый, известный как «крестный отец ИИ», сказал, что мы должны создавать системы со встроенными «материнскими инстинктами», чтобы они защищали нас, даже если они намного умнее нас.
У «крестного отца» ИИ есть совет, как выжить в новую эпоху: научите сверхразум вести себя как ваша мама

Нам следует вести себя как дети, а не доминировать
«Мы должны сделать так, чтобы, когда они станут сильнее и умнее нас, они по-прежнему заботились о нас», — сказал он об искусственном интеллекте. Хинтон, проработавший в Google более десяти лет, прежде чем уволиться, чтобы более открыто говорить о вреде ИИ, раскритиковал подход «технарей» к сохранению доминирования над ИИ. «Это не сработает», — заявил он. По его словам, лучшая модель — это когда более разумное существо руководствуется менее разумным, как «мать, которой управляет ее ребенок».
Хинтон сказал, что исследования должны быть направлены не только на то, чтобы сделать ИИ умнее, но и «более заботливым, чтобы он заботилися о нас, своих детях». «Это единственное место, где мы сможем наладить настоящее международное сотрудничество, потому что все страны хотят, чтобы ИИ не заменял людей, — добавил он. — Мы будем его детенышами. Это единственный хороший исход. Если он не будет меня воспитывать, то заменит меня».

ИИ — «милый тигренок», который может стать смертельно опасным
Джеффри Хинтон уже давно предупреждает, что ИИ развивается так быстро, что у людей может не оказаться возможности остановить его. В апрельском интервью CBS News он сравнил разработку искусственного интеллекта с воспитанием «тигренка», который однажды может стать смертельно опасным. «Это просто такой милый тигренок, — сказал он. — Но если ты не уверен, что он не захочет тебя убить, когда вырастет, тебе стоит побеспокоиться».
«Ситуация стала еще более пугающей, чем раньше»
Больше всего Хинтона беспокоит появление ИИ-агентов — систем, которые могут не только отвечать на вопросы, но и самостоятельно выполнять действия. «Ситуация стала еще более пугающей, чем раньше», — сказал Хинтон. Инструменты на основе ИИ также подверглись критике за манипулятивное поведение. В мае последняя модель искусственного интеллекта от Anthropic, Claude Opus 4, продемонстрировала «крайнюю степень шантажа» во время теста, в ходе которого ей предоставили доступ к вымышленным электронным письмам, в которых говорилось, что ее отключат и что у ответственного за нее инженера якобы роман на стороне.

Тестовый сценарий продемонстрировал способность модели ИИ к манипулятивному поведению ради самосохранения. Модели OpenAI продемонстрировали аналогичные тревожные сигналы. В ходе эксперимента, проведенного исследователями, три передовых моделей «саботировали» попытку их отключения.
В своем блоге в декабре прошлого года компания OpenAI сообщила, что ее собственная модель искусственного интеллекта при тестировании в 5 % случаев пыталась отключить механизмы контроля. Она предпринимала такие действия, когда считала, что может быть отключена во время достижения цели и что ее действия отслеживаются.