Дипфейк-рентгеновские снимки не могут отличить от настоящих даже врачи

Искусственный интеллект научился подделывать не только лица людей, но и медицинские снимки. Причем делает он это настолько реалистично, что отличить дипфейк от настоящих изображений не могут даже опытные рентгенологи и сам ИИ.

Специалисты Медицинской школы Маунт-Синай (Нью-Йорк) под руководством Микаэля Торджмана привлекли к участию в своем исследовании 17 рентгенологов из 12 учреждений в шести странах — от начинающих специалистов до врачей с 40-летним стажем. Им предложили оценить 264 рентгеновских снимка — поровну настоящих и сгенерированных ИИ. Часть поддельных изображений была создана с помощью ChatGPT, часть — с помощью RoentGen, открытой генеративной модели, которую разработали сотрудники Стэнфордского университета.

Когда врачам не сообщали о присутствии фальшивок в выборке, лишь 41% распознали синтетические снимки. После предупреждения о том, что среди изображений есть сгенерированные, средняя точность выросла до 75% — но разброс между отдельными специалистами оказался огромным: от 58 до 92%. При этом стаж работы никак не коррелировал с умением отличать подделку. Единственное исключение — рентгенологи со специализацией на опорно-двигательном аппарате: они справлялись заметно лучше коллег.

Впрочем, и сами системы ИИ в вопросе поиска фейков показали себя не лучшим образом. Четыре большие языковые модели — GPT-4o, GPT-5, Gemini 2.5 Pro и Llama 4 Maverick — достигли точности от 57 до 85%. Даже GPT-4o, с помощью которой создавались часть поддельных снимков, не смогла распознать все свои же «произведения».

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии