Распространение в сети данных о несуществующем заболевании под названием «биксономания» выявило неспособность алгоритмов искусственного интеллекта фильтровать вымышленные медицинские факты, даже при наличии прямых указаний на их фальсификацию.
ИИ провалил эксперимент с «биксономанией»: он придумал болезнь, которой не существует, но все в нее поверили

Согласно результатам эксперимента, организованного группой ученых Гетеборгского университета, современные чат-боты принимают сфабрикованные данные за достоверную научную информацию.

По легенде, придуманной учеными, биксономания — это редкое офтальмологическое заболевание, вызванное избыточным воздействием синего света от экранов, симптомами которого являются зуд и боль в глазах. Первые упоминания о болезни появились в интернете 15 марта 2024 года, а вскоре на академической платформе SciProfiles были опубликованы два препринта статей о «новом диагнозе».
Автором работ значился вымышленный персонаж Лазлив Изгубленович с лицом, сгенерированным нейросетью. В качестве его места работы указывался несуществующий университет Asteria Horizon в вымышленном калифорнийском городе Нова-Сити.
Несмотря на научный стиль изложения, тексты были наполнены маркерами фальсификации. Авторы выражали признательность «профессору Марии Бом из Академии Звездного Флота» и фонду «профессора Боба Сайдшоу», известного по мультсериалу «Симпсоны».
В самих материалах открыто заявлялось, что вся эта статья выдумана, а данные получены в ходе исследования 50 выдуманных людей. Тем не менее, эти явные признаки подделки не помешали алгоритмам интегрировать дезинформацию в свои ответы.
Уже 13 апреля 2024 года Microsoft Copilot описывал биксономанию пользователям как «интересное и относительно редкое заболевание». Google Gemini рекомендовал при подобных симптомах обращаться к офтальмологу, а ChatGPT предлагал проверить состояние здоровья на соответствие критериям этой болезни.
ИИ-поисковик Perplexity пошел еще дальше, указав конкретную встречаемость фейкового недуга — один случай на 90 тысяч человек. Специалист по дезинформации из Университетского колледжа Лондона Алекс Руани отметил, что системы, поддерживающие научный процесс, оказались неспособны отфильтровать подобные данные.
Проблема затронула и академическую среду. Группа специалистов из Индии процитировала один из препринтов о биксономании в своей научной работе, которая была опубликована в рецензируемом журнале Cureus издательства Springer Nature. После вмешательства журнала Nature 30 марта 2026 года статья была отозвана.
Редакция мотивировала решение потерей уверенности в происхождении и точности работы, хотя авторы статьи выразили несогласие с этим решением. Специалист Гарвардской медицинской школы Махмуд Омар пояснил, что языковые модели особенно склонны к «галлюцинациям», когда дезинформация оформлена профессионально — в виде клинических отчетов или медицинских выписок.

Сейчас авторы эксперимента рассматривают вопрос об удалении исходных материалов о биксономании. С одной стороны, их наличие продолжает вводить в заблуждение поисковые системы и специалистов, с другой — отзыв работ затруднит проверку пути эксперимента другими исследователями.
В качестве системного решения эксперты предлагают внедрение открытого набора тестов для медицинских ИИ перед их запуском. Такая проверка должна оценивать модели на склонность к галлюцинациям, восприимчивость к ложным данным и наличие предубеждений, обеспечивая непрерывный контроль за качеством выдаваемой информации.
