Создана модель ИИ, которая намеренно портит учебные изображения

Ранее искусственный интеллект, преобразующий текст в изображение, боролся со сложной юридической проблемой: нарушением авторских прав. Обученные на обширных базах данных существующих изображений, эти модели иногда слишком близко копировали оригиналы. Это беспокоило художников и вызывало судебные иски.

Исследователи из Техасского университета и Калифорнийского университета в Беркли нашли решение: обучать ИИ на намеренно испорченных изображениях. Их модель «Ambient Diffusion» берет высококачественные фотографии и искажает их с помощью сильного пиксельного маскирования.

Удивительно, но ИИ все равно учится генерировать реалистичные изображения. Вспомните картины импрессионистов — суть есть, но детали размыты. Это исключает риск нарушения авторских прав, поскольку «ИИ не может напрямую запомнить и воспроизвести оригиналы», отмечают ученые.

Daras et al.

Это открывает двери не только в искусство. Представьте, как можно обучать ИИ на медицинских снимках, не нарушая конфиденциальность пациентов за счет размытия чувствительных деталей. Исследователи даже намекнули на возможность применения в научных областях, таких как визуализация черных дыр.

Модель не идеальна, но это значительный шаг, пишут ученые.

Источник: www.ferra.ru
0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии