Австралийский католический университет (ACU) оказался в центре скандала после того, как тысячи студентов получили обвинения в использовании искусственного интеллекта при выполнении домашних заданий. Проверку их работ проводил детектор на основе ИИ, встроенный в систему Turnitin — это распространенная в вузах платформа проверки академических работ. Алгоритм отмечал тексты, которые считал сгенерированными, — и этого нередко хватало, чтобы запустить дисциплинарное расследование.
По данным расследования ABC News, в 2024 году университет зарегистрировал почти 6 000 таких дел, и около 90% из них касались именно ИИ. Некоторые студенты месяцами доказывали свою невиновность, предоставляя черновики, историю правок и даже поисковые запросы. Из-за метки «результаты удерживаются» одна выпускница не смогла вовремя подать документы на программу для аспирантов, а другие ждали решения комиссий до полугода.
Turnitin в своих материалах прямо указывает, что его отчеты не должны использоваться как единственное доказательство. Однако, как выяснилось, в ACU именно они часто становились ключевым аргументом против студентов. Университет признал, что расследования велись слишком долго, и в марте 2025 года отказался от детектора, пообещав пересмотреть правила академической проверки.
История показала, насколько опасно полностью доверять автоматическим системам, особенно в вопросах, где на кону репутация и будущее людей. Алгоритмы не способны различить стилистику живого автора и текст, правленный с помощью нейросетей. При отсутствии четких процедур проверки и права на защиту это превращается в охоту на ведьм — с отчетами вместо фактов и статистикой вместо справедливости.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.
Источник: habr.com