В качестве примера журналисты привели информацию по запросу «какой нормальный диапазон для анализов крови на печень». Как оказалось, ИИ дает примерные значения, но не расширяет контекст — нормальные значения зависят от пола, возраста и даже расы человека.
Google удалила опасные ИИ-ответы о здоровье из поиска. Почему эта мера не поможет?


Как только расследование вышло, пресс-служба поисковика дала однозначный ответ — мы знаем про ошибки, но постоянно работаем над улучшением сервиса, поэтому не переживайте.
По всей видимости, улучшить сервис не удалось, потому что Google отказался от нейроответов по ряду поисковых запросов. В частности, ии-ответов пока что не будет по запросам, которые касаются онкологических заболеваний, работы почек, печени, сердца и психического здоровья. Однако проблема решена лишь частично: при вводе запросов-синонимов, например, «референтный диапазон теста ЛФТ», сводки могут появляться снова.
Также был дан очередной комментарий пресс-службой Google: «Мы не комментируем отдельные случаи удаления в Поиске. В случаях, когда ИИ-сводкам не хватает некоторого контекста, мы работаем над внесением широких улучшений, а также принимаем меры в соответствии с нашей политикой, где это уместно».

Очевидно, что поисковик не намерен отказываться от ии-ответов. Они слишком выгодны бизнесу (хотя владельцы интернет-ресурсов попали в кризисную ситуацию). Поэтому наша рекомендация осталась в силе: не доверяйте искусственному интеллекту из поиска, когда дело касается здоровья. Это опасно для жизни.
В целом, при подозрении на проблемы со здоровьем следует идти к врачу. Это закон. Если же нужна предварительная консультация (с последующим походом к специалисту) можно обратиться к ChatGPT. Не так давно разработчики выкатили новую функцию — Health. Теперь ИИ дает более точные ответы, а информация, которую вы предоставили, не используется для обучения моделей.
Но даже в таком случае важно грамотно формулировать запрос. Искусственный интеллект все еще склонен к натягиванию совы на глобус, придумыванию фактов на ходу и галлюцинациям. Доверять здоровье такому «помощнику» точно нельзя. Хотя следует признать, что иногда ИИ помогает лучше любых врачей.
