Российским медикам запретили использовать эмодзи в электронных медкартах: они попадали туда из ChatGPT

Выяснилось, что каждый пятый врач уже автоматизирует заполнение документации с помощью нейросетей.
Игорь Барышев
Игорь Барышев
Российским медикам запретили использовать эмодзи в электронных медкартах: они попадали туда из ChatGPT
Unsplash

Нижегородское министерство здравоохранения выпустило официальное распоряжение, запрещающее медицинским работникам использовать графические спецсимволы и эмодзи при заполнении электронных медицинских карт и протоколов осмотра.

Поводом для такого решения стали участившиеся случаи появления в медицинских документах на портале «Госуслуги» специфической стилистики, характерной для текстов, генерируемых искусственным интеллектом.

Первым на ситуацию обратил внимание главный редактор МИА «Стационар-пресс» Алексей Никонов, отметивший в своем телеграм-канале, что жители города начали получать врачебные заключения с нетипичной для официальной документации пунктуацией и символами, которые обычно использует чат-бот ChatGPT.

Нейросети лучше врачей: ИИ опроверг смертельный диагноз пациента и оказался прав

ChatGPT станет семейным врачом: в ИИ появится отдельный раздел здоровья

Больная раком женщина раскрыла, как ChatGPT спас ее жизнь: ИИ обнаружил болезнь раньше врачей​​​​​​​
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Выяснилось, что значительная часть медицинского персонала региона начала делегировать нейросетям рутинную работу по оформлению текстов.

Читайте Men Today в MAX

Результаты экспресс-опроса показали, что около 20% медиков Нижегородской области регулярно применяют ИИ-технологии, чтобы сократить время на заполнение документации. Еще примерно треть сотрудников выразили заинтересованность в использовании подобных инструментов, но на данный момент не владеют необходимыми навыками.

Тем временем, распространение нейросетевого стиля в документах стало поводом для проведения внутренних проверок, по итогам которых ведомство ввело запрет на использование специфических символов в медицинских информационных системах.

Чуть позже официальные СМИ и телеграм-каналы начали сообщать, что врачи могут применять ChatGPT не только для рутинных задач, но и непосредственно при постановке диагнозов. Однако региональный Минздрав в официальном комментарии для РБК опроверг эти сведения.

Представители министерства подчеркнули, что процесс диагностики в государственных медицинских организациях осуществляется в строгом соответствии с утвержденными клиническими рекомендациями и стандартами лечения, а участие нейросетей в этом процессе исключено. По заявлению ведомства, информация о постановке диагнозов с помощью ИИ является искаженной интерпретацией первоисточника.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В министерстве здравоохранения также уточнили, что официальных жалоб от жителей региона на некорректное оформление документов через «Госуслуги» не поступало. Распоряжение о запрете эмодзи и спецсимволов было направлено для наведения порядка в документообороте и обеспечения его соответствия деловому стилю.

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Ранее кардиолог и доктор медицинских наук Алексей Никитин заявил изданию aif.ru, что нейросети на современном этапе развития не способны полноценно заменить профессиональную медицинскую диагностику.

Читайте Men Today в MAX

«Искусственный интеллект может быть полезен лишь как вспомогательный инструмент для первичного поиска справочной информации, однако он не обладает способностью учитывать индивидуальные особенности организма каждого пациента», — пояснил специалист.

По словам Никитина, ИИ не анализирует историю болезни в полном объеме, игнорирует сопутствующие диагнозы и другие критические факторы, влияющие на состояние здоровья.

Особое внимание врач уделил рискам самолечения на основе рекомендаций нейросетей.

«Неверная интерпретация симптомов алгоритмом может привести к тому, что пациент потеряет время, необходимое для оказания квалифицированной помощи, что спровоцирует прогрессирование заболевания», — предупредил врач.