Согласно новым исследованиям, виртуальные ассистенты, такие как Alexa и Siri, пока еще далеки от идеала в отображении эмпатии по сравнению с людьми. Ученые из университетов Корнелла, Олин и Стэнфорда провели эксперимент, проверяя способность искусственного интеллекта проявлять эмпатию к различным группам людей.
Исследователи обнаружили, что разговорные агенты часто делают субъективные оценки о различных идентичностях и могут поощрять даже вредные идеологии. Это вызвало обеспокоенность относительно потенциальных негативных последствий использования искусственной эмпатии в таких областях, как образование и здравоохранение.
В целом, исследователи отметили, что разговорные агенты получают высокие оценки за эмоциональные реакции, но плохо справляются с интерпретацией и исследованием пользовательского опыта.
Эксперты призывают к более критическому взгляду на использование искусственной эмпатии и развитию мер для смягчения ее потенциальных вредных последствий.
Источник: www.ferra.ru