У большинства моделей ИИ обнаружили «проблемы с воображением»

Ученые из США и Канады проверили, насколько хорошо понимают визуальную информацию самые популярные большие языковые модели (LLM) с функциями зрения (VLM). В работе, опубликованной на arXiv, ученые протестировали GPT-4o, Gemini-1.5 Pro, Claude-3 Sonnet и Claude-3.5 Sonnet.

Возможность обрабатывать визуальные данные появилась у LLM совсем недавно. Однако ученые выяснили, что пока эта функция далека от совершенства. Авторы исследования сравнивают LLM с системой «камера-мозг». Камера (система распознавания объектов) у современных моделей развита хорошо, а вот «мозг» (способность обрабатывать информацию) пока отстает.

Например, LLM легко распознают на картинке Тадж-Махал, но с вопросами о деталях вроде количества держащихся за руки детей модель может не справиться. Языковые модели не умеют считать, их обучают распознавать образы. Поэтому, если LLM не показывали заранее картинку с таким же количеством детей, она не сможет ответить на вопрос.

Ученые предложили моделям выполнить простые задачи вроде подсчета накладывающихся друг на друга кругов или соединенных колец.

Все LLM плохо справились с заданиями, показывая хорошие результаты только на знакомых изображениях. Например, подсчитать количество соединенных колец свыше пяти оказалось сложным, так как кроме олимпийских колец, таких примеров модели, видимо, не видели.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
13453
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии