Российские учёные выявили, что языковые модели «уязвимы» к человеческим эмоциям

Специалисты Института искусственного интеллекта AIRI установили связь между эмоциональным состоянием человека и принимаемыми нейросетями решениями. Оказалось, что эмоциональные переживания в момент общения человека с ИИ, довольно сильно влияет на решения последнего. И здесь речь идёт не только о крохотных нейросетях, но и о больших языковых моделях. Об исследовании рассказала пресс-служба AIRI. Технологии, музыка, мемы «Результаты исследования могут быть использованы для разработки продвинутых устойчивых мультиагентных систем ИИ, чью эмоциональность можно будет устанавливать для каждой сферы применения отдельно. Бизнес вряд ли оценит ситуацию, в которой ИИ-маркетолог увеличит персональную скидку клиента до 99%, потому тот в процессе обсуждения целенаправленно вызвал в системе глубокое чувство досады и несправедливости», — пояснил руководитель группы «ИИ в промышленности» Института AIRI Илья Макаров, чьи слова приводит пресс-служба вуза.

Открытие было сделано при участии специалистов из Лаборатории искусственного интеллекта Сбера и Института системного программирования РАН, когда изучалось возможное воздействие эмоционального состояние человека на простые по своей конструкции системы искусственного интеллекта, включая такие популярные модели как GPT-4, LLaMA2, Gigachat и OpenChat.

В ходе работы российские учёные пытались установить, сохраняют ли языковые модели эмоциональную предвзятость в данных, которые они используют для самообучения, и как это влияет не принимаемые нейросетями решения. Чтобы решить поставленную задачу, учёные изучали, как ведёт себя искусственный интеллект в экономических играх, когда к нему обращаются на российском и английском языках с сильной эмоциональной составляющей.

Учёные установили, простые языковые модели в экономических играх, например, в «Диктаторе» и «Дилемме заключённого», начали давать необъективные ответы, когда работали с эмоциональными данными. Лучшим образом показали себя большие нейросети, однако и они, как утверждают авторы исследования, начинали вести себя «по-человечески», когда сталкивались с особо сильными эмоциями, включая, гнев.

Если говорить о кооперативных играх, то здесь эмоциональная составляющая снижала желание искусственного интеллекта к сотрудничеству, тогда как страх становился причиной необдуманных решений.

Источник: trashbox.ru

0 0 голоса
Рейтинг новости
1467
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии