Новый препринт, опубликованный на сайте arXiv, проливает свет на ограничения больших языковых моделей (LLM) в задачах аналоговых рассуждений. Исследование показывает, что большие языковые модели, такие как GPT-модели, работают неоптимально по сравнению с человеком, особенно при решении задач аналогии буквенных строк со стандартными алфавитами.
Более того, при предъявлении контрфактических алфавитов LLM демонстрируют снижение точности, демонстрируя отличные от человеческих модели ошибок, что указывает на недостаток абстрактного мышления, необходимого для продвинутого ИИ, к которому сейчас стремятся многие компании.
Сравнение между человеческим интеллектом и LLM, несмотря на свою проницательность, сталкивается с трудностями. LLM работают в цифровой сфере, что ограничивает возможность прямого сравнения с человеческими способностями, выраженными в цифровом виде. Хотя LLM демонстрируют мастерство выполнения задач, им не хватает эмоциональной привязанности, угрызений совести и осознания последствий — характеристик, присущих человеческому познанию.
Несмотря на свое мастерство в выполнении цифровых задач, LLM создают уникальные проблемы в области цифровой безопасности. Их возможности распространяются на создание поддельного контента, что вызывает опасения по поводу распространения дезинформации и угроз кибербезопасности. По мере того как LLM перемещаются по сложной цифровой среде, обеспечение их ответственного использования приобретает первостепенное значение для снижения рисков цифрового заражения и вредоносной деятельности.
Для решения этих проблем крайне необходимы усилия по согласованию возможностей LLM с человеческим познанием и разработке мер защиты от цифровых рисков. Понимание параллелей между квалификационными характеристиками LLM и когнитивными функциями человека может послужить основой для разработки стратегий безопасности ИИ и управления цифровой памятью, защищающих от распространения вредоносного цифрового контента и киберугроз, сообщают эксперты.
Источник: www.ferra.ru