Новое исследование Microsoft AI for Good, в котором описывается эксперимент с участием более 12,5 тыс. человек по всему миру и анализом 287 тыс. изображений, показало, что общий процент успешного распознавания изображений, созданных ИИ, составляет всего 62%, пишет Neowin.
Участники исследования проходили игру «Правда или нет», в которой им показывали реальные фото и созданные искусственным интеллектом. Отмечается, что исследователи не отбирали изображения и не выбирали только те, которые легко вводят в заблуждение.
Выяснилось, что участники легко определяли поддельные портреты людей. Возможно, благодаря врождённой способности людей хорошо распознавать лица, было легче заметить аномалии в портретах, созданных ИИ. Но у испытуемых возникали трудности, когда дело доходило до природных и городских пейзажей: процент успешных ответов снижался до 59–61%. Людям было сложно отличить изображения, созданные ИИ, особенно те, на которых нет очевидных артефактов или стилистических подсказок.
Более старые генеративно-состязательные сети (GAN) и методы инпейнинга неплохо обманывали пользователей, создавая изображения, которые выглядели как любительская фотография, а не как работа популярных моделей, таких как Midjourney и DALL-E 3.
Для распознавания ИИ-изображений исследователи использовали собственный инструмент, который смог обеспечить точность выше 95%, так что машинная помощь оказалась надёжнее человеческого суждения, но даже она не идеальна.
Основываясь на результатах исследования, Microsoft призывает использовать инструменты обеспечения прозрачности, такие как водяные знаки и надёжные средства обнаружения ИИ, чтобы устранить риски, связанные с дезинформацией, возникающей из-за контента, созданного ИИ.
В 2024 году Microsoft и OpenAI объявили о создании фонда с бюджетом $2 млн для борьбы с растущими рисками использования искусственного интеллекта и дипфейков. Также OpenAI запустила новый детектор дипфейков для исследователей дезинформации, предназначенный для выявления фейков, созданных DALL-E.
Источник: habr.com