Новый инструмент поможет в борьбе с фейками. А также в ИИ-контенте появятся водяные знаки.
Компания OpenAI выпустит инструмент, который позволит определить, создано ли изображение через генератор DALL-E 3. Об этом разработчики рассказали в своем блоге.
В компании отметили, что занимаются созданием инструментов, которые определяют происхождение контента. По словам разработчиков, это необходимо из-за растущих опасений касательно использования нейросетей для фейков, в том числе для влияния на выборы по всему миру.
OpenAI уже тестирует инструмент, который распознает созданные DALL-E 3 изображения. Он подходит даже для картинок, которые обрезали или у которых изменили насыщенность или другие параметры. Точность сервиса составляет примерно 98%. При этом с сервисами для генерации других изображений он справляет намного хуже. Например, в случае с Midjourney определяется около 5–10% картинок.
Помимо этого, OpenAI будет маркировать сгенерированный контент специальными водяными знаками. Например, в аудио появится сигнал, который будет очень сложно удалить.
Ранее нейросеть SORA сгенерировала музыкальный клип. Его фишкой стал «бесконечный зум».
Источник: hi-tech.mail.ru