Новые документы, полученные изданием WIRED, раскрывают, что с октября 2022 года по сентябрь 2023 года компания Transport for London (TfL) тестировала 11 алгоритмов искусственного интеллекта (ИИ) для слежения за поведением людей на станции метро Willesden Green.
Система использовала живое видео и ИИ для выявления агрессивного поведения, наличия оружия и других небезопасных ситуаций. За время теста было отправлено более 44 000 предупреждений, 19 000 из которых поступили в реальном времени.
Документы также выявили ошибки системы, включая ложное срабатывание на детей и неспособность различить складные и нескладные велосипеды. Эксперты по конфиденциальности поднимают вопросы о точности алгоритмов и предостерегают от возможного расширения систем слежения, включая использование технологий распознавания лиц. TfL отмечает, что тест поможет в будущих подходах и вмешательствах, но решение о расширении технологии будет принято после консультаций с общественностью.
Источник: www.ferra.ru