Нижегородское министерство здравоохранения выпустило официальное распоряжение, запрещающее медицинским работникам использовать графические спецсимволы и эмодзи при заполнении электронных медицинских карт и протоколов осмотра.
Российским медикам запретили использовать эмодзи в электронных медкартах: они попадали туда из ChatGPT

Поводом для такого решения стали участившиеся случаи появления в медицинских документах на портале «Госуслуги» специфической стилистики, характерной для текстов, генерируемых искусственным интеллектом.
Первым на ситуацию обратил внимание главный редактор МИА «Стационар-пресс» Алексей Никонов, отметивший в своем телеграм-канале, что жители города начали получать врачебные заключения с нетипичной для официальной документации пунктуацией и символами, которые обычно использует чат-бот ChatGPT.

Выяснилось, что значительная часть медицинского персонала региона начала делегировать нейросетям рутинную работу по оформлению текстов.
Результаты экспресс-опроса показали, что около 20% медиков Нижегородской области регулярно применяют ИИ-технологии, чтобы сократить время на заполнение документации. Еще примерно треть сотрудников выразили заинтересованность в использовании подобных инструментов, но на данный момент не владеют необходимыми навыками.
Тем временем, распространение нейросетевого стиля в документах стало поводом для проведения внутренних проверок, по итогам которых ведомство ввело запрет на использование специфических символов в медицинских информационных системах.
Чуть позже официальные СМИ и телеграм-каналы начали сообщать, что врачи могут применять ChatGPT не только для рутинных задач, но и непосредственно при постановке диагнозов. Однако региональный Минздрав в официальном комментарии для РБК опроверг эти сведения.
Представители министерства подчеркнули, что процесс диагностики в государственных медицинских организациях осуществляется в строгом соответствии с утвержденными клиническими рекомендациями и стандартами лечения, а участие нейросетей в этом процессе исключено. По заявлению ведомства, информация о постановке диагнозов с помощью ИИ является искаженной интерпретацией первоисточника.
В министерстве здравоохранения также уточнили, что официальных жалоб от жителей региона на некорректное оформление документов через «Госуслуги» не поступало. Распоряжение о запрете эмодзи и спецсимволов было направлено для наведения порядка в документообороте и обеспечения его соответствия деловому стилю.

Ранее кардиолог и доктор медицинских наук Алексей Никитин заявил изданию aif.ru, что нейросети на современном этапе развития не способны полноценно заменить профессиональную медицинскую диагностику.
«Искусственный интеллект может быть полезен лишь как вспомогательный инструмент для первичного поиска справочной информации, однако он не обладает способностью учитывать индивидуальные особенности организма каждого пациента», — пояснил специалист.
По словам Никитина, ИИ не анализирует историю болезни в полном объеме, игнорирует сопутствующие диагнозы и другие критические факторы, влияющие на состояние здоровья.
Особое внимание врач уделил рискам самолечения на основе рекомендаций нейросетей.
«Неверная интерпретация симптомов алгоритмом может привести к тому, что пациент потеряет время, необходимое для оказания квалифицированной помощи, что спровоцирует прогрессирование заболевания», — предупредил врач.
