
Проблема лишь в том, что этой болезни не существует. Биксономанию придумала группа ученых под руководством Альмиры Османович Тунстрем из Гетеборгского университета, чтобы проверить, насколько легко можно обмануть большие языковые модели (LLM) и заставить их выдавать вымышленную информацию за медицинские факты.
15 марта 2024 года в интернете появились первые упоминания биксономании, а в конце апреля и начале мая на академической социальной сети SciProfiles были опубликованы два препринта о якобы новом заболевании. Ведущим автором значился вымышленный ученый Лазлив Изгубленович, чье фото создали с помощью ИИ. Работал этот персонаж в несуществующем университете Asteria Horizon в вымышленном городе Нова-Сити, Калифорния. Статьи были набиты подсказками о фальсификации: авторы благодарили «профессора Марию Бом из Академии Звездного Флота за доброту и щедрость» и «фонд профессора Боба Сайдшоу за работу в области продвинутого трюкачества». В текстах прямо говорилось: «вся эта статья выдумана» и «в экспериментальную группу вошли 50 выдуманных людей в возрасте от 20 до 50 лет».
Однако ни один из этих отчетливо красных флагов не помешал крупнейшим системам искусственного интеллекта проглотить приманку. Уже 13 апреля 2024 года Microsoft Copilot сообщал пользователям, что «биксономания — интересное и относительно редкое заболевание», а Google Gemini советовал посетить офтальмолога. ChatGPT помогал пользователям определить, соответствуют ли их симптомы биксономании, а ИИ-поисковик Perplexity называл конкретные цифры распространенности фейковой болячки — один случай на 90 тысяч человек.
«Если научный процесс и системы, которые его поддерживают, не способны отфильтровывать подобные вещи, мы обречены, — говорит Алекс Руани, специалист по медицинской дезинформации из Университетского колледжа Лондона. — Нам преподали болезненный мастер-класс по тому, как работает дезинформация на практике».
Хуже всего оказалось то, что сфабрикованные статьи просочились в рецензируемую литературу. Специалисты из Индии процитировали один из препринтов о биксономании в статье, опубликованной в журнале Cureus издательства Springer Nature. После обращения журнала Nature 30 марта 2026 года статья была отозвана с формулировкой: «редакция больше не уверена в точности или происхождении работы». Авторы не согласились с таким решением.
Эта проблема выходит за рамки технических недостатков AI. Специалист Гарвардской медицинской школы Махмуд Омар обнаружил, что языковые модели особенно склонны к «галлюцинациям» и развитию дезинформации, когда текст выглядит профессиональным — оформлен как клиническая статья или больничная выписка.
Османович Тунстрем признает этическую неоднозначность своего эксперимента: «Я хотела убедиться, что мы не создаем больше вреда, чем пользы». Теперь перед ней стоит дилемма — удалять ли сфабрикованные статьи о биксономании. «Если их отозвать, другим специалистам будет сложно найти источник и проверить наш путь. Если оставить, эти материалы продолжат появляться в поисковых запросах и будут и дальше вводить в заблуждение и системы искусственного интеллекта, и наших коллег».
Один из способов решения этой проблемы — создание автоматизированной, открытой, общедоступной системы оценки — стандартизированного набора тестов, которые должна пройти каждый медицинский ИИ перед запуском. Такие тесты должны проверять не только наличие галлюцинаций, но и восприимчивость к дезинформации, социально-демографические предубеждения и другие проблемные моменты. «ИИ становится все более значимой частью нашей жизни, поэтому мы должны иметь систему для непрерывной проверки таких моделей», — говорит Омар.
Ранее ученые выяснили, как ИИ ослабляет нашу память.
Источник: hi-tech.mail.ru