В группу, о которой идет речь, входят представители компаний, развивающих ИИ, юристы и консультанты. Именно их стараниями была подготовлена инициатива, получившая название «О регулировании систем искусственного интеллекта в России». По информации СМИ, данный документ уже обсуждался в Госдуме, а также на отраслевых дискуссионных площадках.
Восстание машин отменяется: в России хотят запретить ИИ с «неприемлемым уровнем риска»

Власти России намерены урегулировать использование технологий искусственного интеллекта. РБК со ссылкой на источники сообщает, что профильная рабочая группа уже подготовила соответствующий законопроект, одним из основных предметов обсуждения в котором станет ИИ с «угрожающим уровнем риска».

В пояснительной записке к законопроекту сказано, что он разработан в рамках реализации Национальной стратегии развития ИИ до 2030 года — ее утвердили в феврале 2024-го. При этом зампред комитета Госдумы по информационной политике и член думской рабочей группы по ИИ Андрей Свинцов отмечает: пока депутаты «не рассматривают всерьез» предлагаемые изменения, детально изучая все запросы от различных отраслей.
Тем не менее, детали подготовленной инициативы уже известны. Один из ключевых пунктов проекта предусматривает введение в России понятия искусственного интеллекта, а также понятие технологий ИИ — к ним будут отнесены в том числе технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи и прочее.

Помимо этого, в законодательстве может быть прописано понятие систем ИИ, а также требования к их маркировке. Речь идет об обязательном информационном обозначении, которое будет указывать на использование искусственного интеллекта при взаимодействии с пользователем. Авторы документа отмечают, что такая маркировка должна быть явной, недвусмысленной и легко идентифицируемой.
Также рабочая группа предлагает классифицировать системы ИИ по уровню потенциального риска. Так, они могут поделены на категории с неприемлемой, высокой, ограниченной и минимальной угрозой. Предлагается запретить разработку и эксплуатацию тех систем, риски от которых будут признаны неприемлемыми. Это означает, что данная система ИИ создает угрозу безопасности личности, общества или государства, а также нарушает основополагающие права и свободы человека.
В то же время для систем с высоким уровнем риска рабочая группа предлагает ввести обязательную регистрацию и сертификацию — к этой группе могут отнести технологии, применяемые в здравоохранении, транспорте, финансах и других сферах, где они могут создать риски для жизни, здоровья, прав и свобод граждан. Для систем с ограниченным уровнем угрозы в законопроекте предусмотрено введение мер внутреннего контроля качества и добровольная сертификация.
За непосредственный ущерб жизни, здоровью или имуществу для лиц, которые участвуют в эксплуатации или разработке систем ИИ, предлагается ввести ответственность. Однако, сказано в документе, разработчик будет от нее освобожден, если принял все необходимые меры для предотвращения такой угрозы.