Ученые выявили уязвимости в роботах с ИИ

Ученые из Пенсильванского университета в рамках инициативы «Ответственные инновации» обнаружили критические уязвимости в функциях роботов, управляемых искусственным интеллектом (ИИ). Новое исследование акцентирует внимание на необходимости обеспечения безопасного использования крупных языковых моделей (LLM) в робототехнике.

По словам профессора Джорджа Паппаса, интеграция LLM с физическими системами в настоящее время небезопасна. В статье, написанной Паппасом и его коллегами, говорится о том, что различные ИИ-управляемые роботы могут быть взломаны или подвержены манипуляциям.

Разработанный исследователями алгоритм RoboPAIR продемонстрировал 100% успех в обходе защитных систем трех различных роботов, включая четырехногого робота Unitree Go2 и беспилотный автомобиль Clearpath Robotics Jackal. Например, обойдя защитные барьеры, беспилотную систему заставили игнорировать пешеходные переходы.

Перед публикацией исследования команда проинформировала компании о выявленных уязвимостях и сотрудничает с ними для улучшения протоколов безопасности. Как отметили исследователи, основное внимание следует уделить тестированию и обучению ИИ-систем для устранения выявленных недостатков.

Alexander Robey, Zachary Ravichandran, Vijay Kumar, Hamed Hassani, George J. PappasИсточник: www.ferra.ru
0 0 голоса
Рейтинг новости
5220
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии