Искусственный интеллект в системе уголовного правосудия: угрозы и гарантии

Генеральный секретарь Интерпола Юрген Шток недавно предупредил, что AI способствует совершению преступлений в «промышленном масштабе» с помощью дипфейков, имитации голоса и поддельных документов.

Полиция по всему миру также обращается к таким инструментам AI, как распознавание лиц, автоматическое считывание номерных знаков, системы обнаружения выстрелов, анализ социальных сетей и даже полицейские роботы. Использование AI юристами также «стремительно растёт», поскольку судьи принимают новые правила использования AI.

Хотя AI обещает преобразовать систему уголовного правосудия, повысив эффективность работы и улучшив общественную безопасность, он также сопряжён с рисками. Опасения по поводу предвзятости и дискриминации AI хорошо задокументированы. Без надлежащих мер предосторожности AI рискует подорвать сами принципы истины, справедливости и подотчётности, от которых зависит система правосудия.

В недавнем отчёте Школы права Университета Британской Колумбии «Искусственный интеллект и уголовное правосудие: краткий обзор» было рассказано о множестве способов, которыми AI уже влияет на людей в системе уголовного правосудия.

Угрозы и гарантии, связанные с применением полицией технологий искусственного интеллекта.

В 2020 году расследование, проведённое The New York Times, выявило масштабы деятельности американской компании Clearview AI, которая создала базу данных для распознавания лиц, используя более трёх миллиардов изображений, собранных из интернета, в том числе из социальных сетей, без согласия пользователей.

Полицейские агентства по всему миру, которые использовали эту программу, в том числе несколько в Канаде, столкнулись с негативной реакцией общественности. Регулирующие органы в нескольких странах обнаружили, что компания нарушила законы о конфиденциальности. Её попросили прекратить деятельность в Канаде.

Однако существуют давние и устойчивые опасения, что распознавание лиц может приводить к ложным срабатываниям и другим ошибкам, особенно когда речь идёт об идентификации чернокожих и других расовых групп, что усугубляет системный расизм, предрассудки и дискриминацию.

Некоторые правоохранительные органы в Канаде, которые оказались втянуты в скандал с Clearview AI, с тех пор приняли новые меры, такие как политика полицейской службы Торонто в отношении использования AI и программа прозрачности Королевской канадской конной полиции.

Глубоко фальсифицированные доказательства в суде

Ещё одна область, в которой AI создаёт проблемы для системы уголовного правосудия, — это доказательства с использованием дипфейков, в том числе документы, аудиозаписи, фотографии и видео, созданные AI.

Это явление уже привело к случаям, когда одна из сторон утверждает, что доказательства другой стороны являются дипфейком, и ставит их под сомнение, даже если они достоверны. Это явление получило название «дивиденд лжеца».

Громкий пример обвинений, связанных с доказательствами, основанными на дипфейках, возник в деле Джошуа Дулина, которому были предъявлены обвинения, связанные с восстанием 6 января 2021 года в Капитолии США, за которое он был в конечном итоге осуждён. Адвокат Дулина утверждал, что прокуроры должны проверять подлинность видеодоказательств, полученных с YouTube, что вызывает опасения по поводу возможного использования дипфейков.

Присяжные могут быть особенно склонны сомневаться в их подлинности, учитывая громкие инциденты с дипфейками, в которых участвовали знаменитости, или собственное использование ими технологий искусственного интеллекта.

Судьи также бьют тревогу по поводу проблем, связанных с выявлением всё более изощрённых доказательств дипфейков, которые допускаются в суде. Есть опасения, что это может привести к неправомерному осуждению или оправданию.

Алгоритмы оценки рисков

Представьте, что алгоритм искусственного интеллекта, который вы не можете понять, счёл вас склонным к побегу или к повторному совершению преступления, и эта информация была использована судьёй или комиссией по условно-досрочному освобождению, чтобы отказать вам в освобождении из-под стражи. Эта антиутопическая реальность — не выдумка, а действительность во многих частях мира.

Автоматизированное алгоритмическое принятие решений уже используется в различных странах для принятия решений о доступе к государственным пособиям и жилью, оценки риска домашнего насилия, принятия решений об иммиграции и во множестве приложений в сфере уголовного правосудия, от решений об освобождении под залог до вынесения приговора, классификации тюрем и результатов условно-досрочного освобождения.

Люди, на которых влияют эти алгоритмы, как правило, не могут получить доступ к лежащему в их основе проприетарному программному обеспечению. Даже если бы они могли, это зачастую «чёрные ящики», в которые невозможно проникнуть.

Что ещё хуже, исследования некоторых алгоритмов выявили серьёзные проблемы, связанные с расовой предвзятостью. Ключевая причина этой проблемы заключается в том, что модели AI обучаются на данных из обществ, в которых уже укоренился системный расизм. «Что посеешь, то и пожнёшь» — это распространённая поговорка, объясняющая это.

Стимулирование инноваций при одновременном обеспечении справедливости

Потребность в правовом и этичном AI в ситуациях повышенного риска, связанных с уголовным правом, имеет первостепенное значение. Несомненно, необходимы новые законы, нормативные акты и стратегии, специально разработанные для решения этих проблем.

Закон Европейского союза об искусственном интеллекте запрещает использование AI для таких целей, как нецеленаправленный сбор изображений из интернета или с камер видеонаблюдения, удалённая биометрическая идентификация в реальном времени в общественных местах (за некоторыми исключениями) и оценка риска рецидива, основанная исключительно на профилировании или личностных характеристиках.

Законы Канады не поспевают за развитием технологий, а те, что были предложены, вызывают вопросы. На федеральном уровне законопроект C-27 (который включает Закон об искусственном интеллекте и данных) застрял в комитете более чем на год и вряд ли будет принят этим парламентом.

Предлагаемый в Онтарио закон об искусственном интеллекте, законопроект 194, освобождает полицию от его применения и не содержит положений об обеспечении соблюдения прав человека.

Потенциальное влияние AI на людей в системе уголовного правосудия огромно. Без продуманного и тщательного контроля оно может подорвать доверие общества к системе правосудия и усугубить существующие проблемы с реальными человеческими последствиями.

К счастью, Канада ещё не зашла так далеко по пути повсеместного внедрения AI в систему уголовного правосудия, как другие страны. Ещё есть время, чтобы опередить их. Политики, суды и гражданское общество должны действовать быстро, чтобы AI служил правосудию, а не подрывал его.

Источник

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии