Восстание машин отменяется: в России хотят запретить ИИ с «неприемлемым уровнем риска»

СМИ сообщают о подготовке нового законопроекта, регулирующего сферу ИИ.
Марина Емельянцева
Марина Емельянцева
Восстание машин отменяется: в России хотят запретить ИИ с «неприемлемым уровнем риска»
Unsplash

Власти России намерены урегулировать использование технологий искусственного интеллекта. РБК со ссылкой на источники сообщает, что профильная рабочая группа уже подготовила соответствующий законопроект, одним из основных предметов обсуждения в котором станет ИИ с «угрожающим уровнем риска».

В группу, о которой идет речь, входят представители компаний, развивающих ИИ, юристы и консультанты. Именно их стараниями была подготовлена инициатива, получившая название «О регулировании систем искусственного интеллекта в России». По информации СМИ, данный документ уже обсуждался в Госдуме, а также на отраслевых дискуссионных площадках.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

В пояснительной записке к законопроекту сказано, что он разработан в рамках реализации Национальной стратегии развития ИИ до 2030 года — ее утвердили в феврале 2024-го. При этом зампред комитета Госдумы по информационной политике и член думской рабочей группы по ИИ Андрей Свинцов отмечает: пока депутаты «не рассматривают всерьез» предлагаемые изменения, детально изучая все запросы от различных отраслей.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Тем не менее, детали подготовленной инициативы уже известны. Один из ключевых пунктов проекта предусматривает введение в России понятия искусственного интеллекта, а также понятие технологий ИИ — к ним будут отнесены в том числе технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи и прочее.

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Помимо этого, в законодательстве может быть прописано понятие систем ИИ, а также требования к их маркировке. Речь идет об обязательном информационном обозначении, которое будет указывать на использование искусственного интеллекта при взаимодействии с пользователем. Авторы документа отмечают, что такая маркировка должна быть явной, недвусмысленной и легко идентифицируемой.

Также рабочая группа предлагает классифицировать системы ИИ по уровню потенциального риска. Так, они могут поделены на категории с неприемлемой, высокой, ограниченной и минимальной угрозой. Предлагается запретить разработку и эксплуатацию тех систем, риски от которых будут признаны неприемлемыми. Это означает, что данная система ИИ создает угрозу безопасности личности, общества или государства, а также нарушает основополагающие права и свободы человека.

Искусственный интеллект поработит людей к 2030 году: мрачный прогноз от разработчиков ИИ

Искусственный интеллект сделает людей богаче? Экономисты нашли ответ, но он мало кому понравится

ChatGPT может быть опасен: ученые назвали риски общения с искусственным интеллектом​​​​​​​

В то же время для систем с высоким уровнем риска рабочая группа предлагает ввести обязательную регистрацию и сертификацию — к этой группе могут отнести технологии, применяемые в здравоохранении, транспорте, финансах и других сферах, где они могут создать риски для жизни, здоровья, прав и свобод граждан. Для систем с ограниченным уровнем угрозы в законопроекте предусмотрено введение мер внутреннего контроля качества и добровольная сертификация.

За непосредственный ущерб жизни, здоровью или имуществу для лиц, которые участвуют в эксплуатации или разработке систем ИИ, предлагается ввести ответственность. Однако, сказано в документе, разработчик будет от нее освобожден, если принял все необходимые меры для предотвращения такой угрозы.