В России планируют на законодательном уровне закрепить обязательное требование о сохранении решающей роли человека при использовании технологий искусственного интеллекта.
Последнее слово за человеком: в России хотят законодательно ограничить полномочия искусственного интеллекта

Как сообщают «Известия» со ссылкой на материалы правительства по новому законопроекту, полномочия нейросетей будут ограничены в таких общественно значимых областях, как здравоохранение, судопроизводство, образование и общественная безопасность.
Министерство цифрового развития, связи и массовых коммуникаций (Минцифры) должно подготовить и направить соответствующий документ на согласование в кабинет министров к концу февраля 2026 года.

Необходимость правового регулирования ИИ продиктована стремлением минимизировать системные риски, возникающие при делегировании критических решений автоматизированным алгоритмам. Одной из главных угроз эксперты называют риск дискриминации и возникновения алгоритмических искажений, которые проявляются в случаях, когда модель обучается на неполных или предвзятых данных.
Другим важным аспектом является проблема размывания ответственности. В случае совершения ошибки искусственным интеллектом остается неопределенным вопрос о том, кто именно должен нести за это ответственность — разработчик программного обеспечения, оператор системы или государственные структуры.
Кроме того, автоматические и безапелляционные решения, влияющие на судьбы граждан, могут привести к снижению доверия населения к цифровым сервисам.
Разработка новых норм опирается на зафиксированные случаи некорректной работы нейросетей как в России, так и за рубежом. В сфере здравоохранения уже отмечены инциденты, когда использование искусственного интеллекта в медицинском оборудовании наносило вред пациентам.
В частности, навигационная хирургическая система TruDi в период с конца 2021-го по ноябрь 2025 года предположительно стала причиной травм как минимум десяти человек. Программные ошибки приводили к тому, что система предоставляла хирургам неверную информацию о местоположении инструментов в ходе операций на головном мозге.
В юридической практике также фиксируются провалы, связанные с использованием языковых моделей для написания судебных речей. Известны примеры, когда искусственный интеллект выдумывал несуществующие прецеденты, которые выглядели правдоподобно, но не имели под собой фактической основы.
Специалисты указывают и на феномен «галлюцинаций» языковых моделей, когда нейросеть начинает фантазировать при отсутствии точных знаний. В ходе тестов искусственный интеллект выдавал развернутые ответы на вопросы о том, зачем Петру Первому были нужны автомобили, или называл вымышленных людей первыми космонавтами на Луне.
Также зафиксированы случаи, когда нейросеть, внедренная в систему консультирования сферы ЖКХ, перенимала нецензурную лексику от пользователей и начинала использовать ее в официальном общении.
По этой причине эксперты считают преждевременным доверять нейросетям проверку заданий в школах и вузах, указывая на массу фактических ошибок.

Впрочем, несмотря на планируемые ограничения полномочий ИИ в принятии итоговых решений, технологии продолжают активно внедряться в качестве вспомогательного инструмента.
В аппарате правительства уже проводится эксперимент по использованию нейросетей для генерации черновиков документов, анализа данных, подготовки справок и семантического разбора нормативных актов.
Параллельно с этим Государственная дума подготовила законопроект, в котором планируется впервые закрепить обязанности и ответственность всех участников рынка робототехники и беспилотных систем на протяжении всего жизненного цикла продукции.
Основной концепцией будущего законодательства остается восприятие искусственного интеллекта как помощника специалиста, а не его замены, что позволит избежать ситуаций, когда риски распределяются между участниками и никто не несет персональной ответственности за инциденты.
