Чат-бот ставил более точные диагнозы, по сравнению с медиками.
Новый обзор показывает, что ChatGPT-4 превзошел ординаторов и лечащих врачей двух академических медицинских центров в обработке медицинских данных и демонстрации клинических рассуждений, сообщает MedicalXpress.
Ученые из Медицинского центра Бет Исраэль Диаконесса (BIDMC) сравнили способности к рассуждению большой языковой модели с человеческими способностями, используя стандарты, разработанные для оценки врачей. За постановкой диагноза обычно стоит несколько этапов, поэтому исследователи хотели оценить, насколько хороши как языковые модели, так и врачи, в такого рода клинических рассуждениях.
В исследовании использовался инструмент для оценки клинических рассуждений врачей под названием r-IDEA. Исследователи набрали 21 лечащего врача и 18 ординаторов, каждый из которых работал над одним из 20 выбранных клинических случаев, состоящих из четырех последовательных стадий диагностического рассуждения.
Авторы поручили врачам выписать и обосновать свои дифференциальные диагнозы на каждом этапе. Чат-бот GPT-4 получил подсказку с идентичными инструкциями и проанализировал все 20 клинических случаев. Их ответы затем оценивались по критериям клинического мышления r-IDEA и некоторым другим показателям рассуждения.
Источник: hi-tech.mail.ru