OpenAI научилась определять созданные через DALL-E 3 изображения

Новый инструмент поможет в борьбе с фейками. А также в ИИ-контенте появятся водяные знаки.

Компания OpenAI выпустит инструмент, который позволит определить, создано ли изображение через генератор DALL-E 3. Об этом разработчики рассказали в своем блоге.

В компании отметили, что занимаются созданием инструментов, которые определяют происхождение контента. По словам разработчиков, это необходимо из-за растущих опасений касательно использования нейросетей для фейков, в том числе для влияния на выборы по всему миру.

OpenAI уже тестирует инструмент, который распознает созданные DALL-E 3 изображения. Он подходит даже для картинок, которые обрезали или у которых изменили насыщенность или другие параметры. Точность сервиса составляет примерно 98%. При этом с сервисами для генерации других изображений он справляет намного хуже. Например, в случае с Midjourney определяется около 5–10% картинок.

Помимо этого, OpenAI будет маркировать сгенерированный контент специальными водяными знаками. Например, в аудио появится сигнал, который будет очень сложно удалить.

Ранее нейросеть SORA сгенерировала музыкальный клип. Его фишкой стал «бесконечный зум».

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии