ИИ должен успешно ответить на 2000 специальных вопросов.
В Китае вводятся новые, беспрецедентно жесткие правила для разработчиков искусственного интеллекта. Теперь прежде чем нейросеть сможет выйти в публичный релиз, она должна пройти обязательную идеологическую проверку и успешно ответить примерно на две тысячи специальных вопросов. Власти рассматривают ИИ как потенциальный источник политических рисков и потому стремятся поставить его под полный контроль.
Как пишет The Wall Street Journal, китайские регуляторы требуют, чтобы модели отказывались отвечать как минимум на 95 процентов запросов, затрагивающих идеологические темы. В их числе — события на площади Тяньаньмэнь, вопросы прав человека, критика партийной власти и другие сюжеты, которые могут противоречить официальной позиции государства. Перечень вопросов регулярно обновляется, а сама проверка стала обязательной для всех компаний, работающих с генеративным ИИ.
Контроль не ограничивается только ответами чат-ботов. Обучать модели разрешено исключительно на заранее отфильтрованных данных. Перед использованием датасетов эксперты должны вручную проверить тысячи примеров контента, при этом не менее 96 процентов материалов должны быть признаны «безопасными». В нормативных документах перечислена 31 категория риска, самой серьезной из которых считается информация, способная подорвать государственную власть или социалистический строй.
Источник: hi-tech.mail.ru