В пресс-службе Института искусственного интеллекта AIRI сообщили, что российские ученые представили новый метод выявления краж моделей искусственного интеллекта (ИИ). Созданные учеными «водяные знаки» помогают доказать, что модель была скомпрометирована. Этот подход полезен для закрытых и открытых моделей, предотвращая неправомерное использование.
Методика базируется на идее о том, что любую нейросетевую модель можно изменить так, чтобы она реагировала на определенные цифровые «водяные знаки». Важно, чтобы эти знаки сохраняли свою эффективность даже после модификации модели, отметили в пресс-службе.
Исследователи проверили свой подход на популярной нейросети ResNet34, используемой для классификации изображений. Они разработали набор «водяных знаков» и проверили, сохранит ли модель способность реагировать на них после модификаций.
Эксперименты показали, что новый подход позволяет выявить неправомерное использование модели в 73−100% случаев, превосходя существующие методики. Ученые надеются, что их разработка поможет разработчикам ИИ эффективнее защищать свои проекты, и уже выложили ее в открытый доступ.
Источник: www.ferra.ru