Ответы нейросети AI Overviews от Google на медицинские запросы могут быть не просто неточными — они порой противоречат рекомендациям врачей и несут реальную угрозу для здоровья. Об этом сообщает The Guardian.
Искусственный интеллект от Google опасен: он дает неверные медицинские рекомендации

AI Overviews — это функция Google, которая генерирует краткие ответы прямо в поисковой выдаче, собирая информацию из нескольких открытых источников. Пользователи видят такой ответ в самом верху страницы и зачастую даже не переходят на другие сайты.

Однако, по мнению медицинских экспертов, участвовавших в расследовании, эти ответы нередко содержат ошибки, которые могут ввести людей в заблуждение — а иногда и навредить. Например, при запросе о питании при раке поджелудочной железы Google посоветовал избегать жирной пищи. На самом деле врачи, напротив, рекомендуют пациентам с этим диагнозом как раз увеличить потребление калорий и жиров — чтобы поддерживать вес и силы.
Еще один тревожный пример: ИИ дал ложное представление о том, какие анализы необходимы для оценки работы печени. Из-за этого человек с серьезным заболеванием мог бы ошибочно решить, что с его здоровьем все в порядке. Также были зафиксированы случаи, когда поисковые запросы, связанные с симптомами рака у женщин, выдавали неточную информацию — такую, что могла подтолкнуть пациентку игнорировать тревожные сигналы или не пойти к врачу.

Представитель Google объяснил ситуацию тем, что ИИ опирается на авторитетные открытые источники, а в выдаче показывается лишь краткое извлечение из более полного ответа. Однако эксперты возразили: даже если исходные данные верны, их обобщение и вырывание из контекста может исказить смысл и привести к опасным последствиям — вплоть до угрозы для жизни.
Особую озабоченность вызывает и то, что один и тот же запрос может давать разные ответы в разное время. Как отметила Афина Ламнисос, исполнительный директор благотворительной организации Eve Appeal, которая занимается профилактикой рака: «Нас также беспокоил тот факт, что сводка ИИ менялась при выполнении одного и того же поиска, каждый раз выдавая разные ответы, взятые из разных источников. Это означает, что люди получают разные ответы в зависимости от того, когда они выполняют поиск, а это неправильно».
В Google не признали наличие системных ошибок, но заявили, что постоянно работают над улучшением качества ИИ-ответов.
Корпорация точно не откажется от этой функции в будущем, а значит пользователям нужно брать ответственность за здоровье в свои руки. Для начала: перестать слепо доверять нейроответам, да и поисковым результатам в целом. Да, есть истории, когда ИИ помогал там, где врачи были бессильны, но чаще консультация у специалиста все еще безопаснее и эффективнее.
