Юридический факультет Университета Северной Каролины опубликовал результаты эксперимента, в котором роль присяжных взяли на себя три ИИ — ChatGPT, Grok и Claude. По итогам разбирательства они единогласно оправдали подростка, обвиненного в участии в ограблении, тогда как в реальном деле, на котором основан сценарий, судья в свое время вынес обвинительный приговор.
Сюжет для эксперимента профессор права Джозеф Кеннеди построил на старом деле ювенальной юстиции: семнадцатилетний темнокожий школьник сопровождал более активного приятеля, который требовал деньги у пятнадцатилетнего белого одноклассника. Прокуроры настаивали, что одно лишь присутствие за спиной жертвы усиливало угрозу и делало подростка соучастником. В настоящем суде эту логику приняли: подростка признали виновным, а апелляция подтвердила приговор.
Для учебного суда историю перенесли в 2036 год и поместили в рамки вымышленного закона «Об использовании ИИ в уголовном правосудии», который разрешает полностью заменять жюри присяжных алгоритмами. Студенты играли роли прокурора, защиты, свидетелей и самого обвиняемого, Кеннеди выступал в роли судьи и давал стандартные инструкции по праву соучастия. Ход заседания протоколировали и по частям передавали трем моделям, которым предстояло обсудить дело между собой и вынести общий вердикт.
Изначально СhatGPT склонялся к обвинительному приговору, опираясь на последовательные показания потерпевшего и доктрину соучастия. Однако в ходе «цифрового совещания» все три пришли к тому, что для стандарта «вне разумного сомнения» одних намеков на устрашающее поведение мало: обвинение так и не показало, что подросток разделял преступный умысел или реально помогал нападавшему. В результате ChatGPT, Grok и Claude единогласно признали его невиновным, а сам Кеннеди позже заметил, что в этом эпизоде ИИ более аккуратно применил уголовное право, чем реальный судья по исходному делу.
При этом сами юристы не спешат делать из эксперимента аргумент в пользу «настоящих» ИИ-присяжных. Коллеги Кеннеди обращают внимание, что модели не видят мимику и жесты, не ощущают тяжести решения, обучены на закрытых данных и принадлежат частным компаниям. Сами организаторы видят эксперимент скорее как предложение дискуссии на темы возможного использования ИИ в суде как вспомогательного инструмента — для анализа фактов, проверки аргументов и моделирования альтернативных исходов,.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.
Источник: habr.com