Последнее слово за человеком: в России хотят законодательно ограничить полномочия искусственного интеллекта

Минцифры готовит законопроект, который запретит нейросетям принимать окончательные решения в медицине, судах и образовании.
Игорь Барышев
Игорь Барышев
Последнее слово за человеком: в России хотят законодательно ограничить полномочия искусственного интеллекта
Freepik

В России планируют на законодательном уровне закрепить обязательное требование о сохранении решающей роли человека при использовании технологий искусственного интеллекта.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как сообщают «Известия» со ссылкой на материалы правительства по новому законопроекту, полномочия нейросетей будут ограничены в таких общественно значимых областях, как здравоохранение, судопроизводство, образование и общественная безопасность.

Министерство цифрового развития, связи и массовых коммуникаций (Минцифры) должно подготовить и направить соответствующий документ на согласование в кабинет министров к концу февраля 2026 года.

Чуда не случилось: искусственный интеллект не способен диагностировать сложные заболевания

Дошло до суда: судью заподозрили в использовании ИИ при вынесении приговора

Кажется, началось: школа в США отказалась от учителей в пользу искусственного интеллекта
Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Необходимость правового регулирования ИИ продиктована стремлением минимизировать системные риски, возникающие при делегировании критических решений автоматизированным алгоритмам. Одной из главных угроз эксперты называют риск дискриминации и возникновения алгоритмических искажений, которые проявляются в случаях, когда модель обучается на неполных или предвзятых данных.

Другим важным аспектом является проблема размывания ответственности. В случае совершения ошибки искусственным интеллектом остается неопределенным вопрос о том, кто именно должен нести за это ответственность — разработчик программного обеспечения, оператор системы или государственные структуры.

Кроме того, автоматические и безапелляционные решения, влияющие на судьбы граждан, могут привести к снижению доверия населения к цифровым сервисам.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Разработка новых норм опирается на зафиксированные случаи некорректной работы нейросетей как в России, так и за рубежом. В сфере здравоохранения уже отмечены инциденты, когда использование искусственного интеллекта в медицинском оборудовании наносило вред пациентам.

В частности, навигационная хирургическая система TruDi в период с конца 2021-го по ноябрь 2025 года предположительно стала причиной травм как минимум десяти человек. Программные ошибки приводили к тому, что система предоставляла хирургам неверную информацию о местоположении инструментов в ходе операций на головном мозге.

В юридической практике также фиксируются провалы, связанные с использованием языковых моделей для написания судебных речей. Известны примеры, когда искусственный интеллект выдумывал несуществующие прецеденты, которые выглядели правдоподобно, но не имели под собой фактической основы.

Специалисты указывают и на феномен «галлюцинаций» языковых моделей, когда нейросеть начинает фантазировать при отсутствии точных знаний. В ходе тестов искусственный интеллект выдавал развернутые ответы на вопросы о том, зачем Петру Первому были нужны автомобили, или называл вымышленных людей первыми космонавтами на Луне.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Также зафиксированы случаи, когда нейросеть, внедренная в систему консультирования сферы ЖКХ, перенимала нецензурную лексику от пользователей и начинала использовать ее в официальном общении.

По этой причине эксперты считают преждевременным доверять нейросетям проверку заданий в школах и вузах, указывая на массу фактических ошибок.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Впрочем, несмотря на планируемые ограничения полномочий ИИ в принятии итоговых решений, технологии продолжают активно внедряться в качестве вспомогательного инструмента.

В аппарате правительства уже проводится эксперимент по использованию нейросетей для генерации черновиков документов, анализа данных, подготовки справок и семантического разбора нормативных актов.

Параллельно с этим Государственная дума подготовила законопроект, в котором планируется впервые закрепить обязанности и ответственность всех участников рынка робототехники и беспилотных систем на протяжении всего жизненного цикла продукции.

Основной концепцией будущего законодательства остается восприятие искусственного интеллекта как помощника специалиста, а не его замены, что позволит избежать ситуаций, когда риски распределяются между участниками и никто не несет персональной ответственности за инциденты.