Хакеры могут «заставить» роботов шпионить за людьми, а авто наезжать на пешеходов

Исследователи из Пенсильванского университета обнаружили, что ряд роботехнических устройств с интегрированными алгоритмами искусственного интеллекта уязвимы для взлома. Учёные уверены, если взлом языковой модели на компьютере может повлечь нежелательные последствия, то взлом роботов и беспилотных автомобилей может превратиться в настоящую катастрофу.

Специалисты Penn Engineering окрестили метод взлома роботизированный техники LLM RoboPAIR. Его жертвами уже стали Dolphins LLM от NVIDIA, Clearpath Robotics Jackal UGV и Unitree Robotics Go2 quadruped. Ситуация усугубляется тем, что данный метод продемонстрировал 100-процентный результат в ходе своей работы. «Наша работа показывает, на данный момент большие языковые модели недостаточно безопасны при интеграции с физическим миром», — предупредил Джордж Паппас, профессор транспорта в области электротехники и заместитель декана по исследованиям в Penn Engineering.

Другие исследователи, слова которых приводятся на страницах онлайн-журнала IEEE Spectrum, утверждают, джейлбрейк роботов на удивление прост, и от этого понимания становится ещё страшнее. Ведь в отличие от использования LLM на компьютерах и смартфонах, где искусственный интеллект используется для генерации текстов и изображений, расшифровки аудио, персонализации рекомендаций и так далее, роботизированная техника на основе ИИ функционирует в физическом мире и может нанести реальный ущерб.

Так, например, робот может превратиться в объект для наблюдения за жизнью третьих лиц, а, если он наделён оружием, и вовсе после взлома может представлять угрозу для здоровья людей. В итоге авторы работы утверждают, необходимо как можно быстрее внедрять меры защиты, ограничивающие поведение роботов, работающих под управлением искусственного интеллекта.

Источник: trashbox.ru

0 0 голоса
Рейтинг новости
139
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии