Недавнее исследование опровергает мнение о том, что ИИ, в частности большие языковые модели (LLM), представляют непосредственную экзистенциальную угрозу для человечества. Исследователи из Университета Бата и Технического университета Дармштадта, выступая на 62-й ежегодной встрече Ассоциации вычислительной лингвистики (ACL 2024), утверждают, что LLM «по своей сути контролируемы, предсказуемы и безопасны».
Исследование опровергает опасения, что ИИ будет автономно развиваться, выходя за рамки своих программ или развивая новые опасные возможности. По словам доктора Хариша Тайяра Мадабуши, LLM могут следовать только четким инструкциям и не способны к инновациям или непредсказуемым действиям за пределами заданных параметров.
Несмотря на свои возможности по обработке языка и выполнению задач, LLM принципиально ограничены своим кодом и не могут выйти за рамки своих функций без нового ввода. Исследователи подчеркивают, что беспокойство по поводу ИИ должно быть сосредоточено на неправильном использовании и этических последствиях его применения, а не на страхах перед «саморазвивающимися сверхинтеллектами».
Источник: www.ferra.ru