Исследование MIT показало проблемы с точностью ИИ в видеонаблюдении

Новое исследование Массачусетского технологического института (MIT) и Университета штата Пенсильвания выявило проблемы в использовании больших языковых моделей (LLM) для домашнего видеонаблюдения. Модели могут рекомендовать вызов полиции даже в случаях, когда видео не показывает преступной активности.

Изученные модели показали непоследовательность в том, какие видео они отмечают для вмешательства полиции. Например, одно видео с угоном автомобиля может быть отмечено, а другое с аналогичной активностью нет.

Ученые обнаружили, что модели часто неадекватно применяют социальные нормы к видеозаписям, что затрудняет прогнозирование их поведения в различных контекстах. Это также демонстрирует проблемы с прозрачностью и объяснимостью моделей, поскольку они могут проявлять неожиданные предвзятости, основанные на демографических данных.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
20
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии