Китайские исследователи обнаружили первое в истории доказательство того, что модели ИИ, такие как ChatGPT, обрабатывают информацию подобно человеческому мозгу. Они подробно описали это открытие в журнале Nature Machine Intelligence.
«Это дает убедительные доказательства того, что представления объектов в LLM (больших языковых моделях), хотя и не идентичны человеческим, имеют фундаментальные сходства, которые отражают ключевые аспекты человеческих концептуальных знаний», — написала группа, стоящая за исследованием. Над ним работали Китайская академия наук и Южно-Китайский технологический университет.
Как сообщается, группа хотела проверить, могут ли модели LLM «создавать человекоподобные представления объектов из лингвистических и мультимодальных данных (данных в разных формах, таких как текст, аудио и т. д.)». Чтобы выяснить, отражает ли процесс работы ИИ наше познание, исследователи заставили OpenAI ChatGPT-3.5 и Google Gemini Pro Vision пройти серию испытаний «лишнего», в которых им давали три элемента и ставили задачу выбрать тот, который не подходит.
Примечательно, что ИИ создал 66 концептуальных измерений для сортировки объектов. Сравнив эту кибернетическую сортировку объектов с человеческим анализом тех же объектов, учёные обнаружили поразительное сходство между «восприятием» моделей и человеческим — особенно, когда дело касается языковой группировки.
Из этого исследователи сделали вывод, что LLM «развивают человекоподобные концептуальные представления объектов».
«Дальнейший анализ показал сильное соответствие между встраиванием моделей и паттернами нейронной активности» в области мозга, связанной с памятью и распознаванием сцен, заметили они.
Исследователи отметили, что LLM немного не дотягивают в отношении категоризации визуальных аспектов, таких как форма или пространственные свойства.
Также они показали, что ИИ с трудом справляется с задачами, требующими более глубоких уровней человеческого познания, такими как аналоговое мышление — проведение сравнений между различными вещами. При этом неясно, понимают ли они значимость или эмоциональную ценность определённых объектов. «Современный ИИ может различать изображения кошек и собак, но существенная разница между этим “распознаванием” и человеческим “пониманием” кошек и собак ещё не раскрыта», — сказал Хэ Хуэйгуан, профессор Института автоматизации Китайской академии наук.
Тем не менее, учёные надеются, что эти результаты позволят им разработать «более человекоподобные искусственные когнитивные системы», которые смогут лучше взаимодействовать с людьми.
Ранее исследователи из Китая выяснили, что две популярные большие языковые модели могут клонировать себя, а затем программировать копии выполнять те же задачи, делая цикл репликации бесконечным. В ходе десятка испытаний две модели ИИ создали функционирующие копии самих себя в 50% и 90% случаев соответственно. Это позволило учёным предположить, что ИИ уже способен выходить из-под контроля.
Источник: habr.com