После того как Google восстановит работу своей большой языковой модели и вернет Gemini в онлайн, ИИ-инструменты могут оставаться ненадежными, особенно при создании изображений или текста о текущих событиях, развивающихся новостях или острых политических вопросах.
«Он будет допускать ошибки», — говорится в публикации Google на прошлой неделе. «Как мы сказали изначально, галлюцинации — это известная проблема для всех больших языковых моделей. Бывают случаи, когда ИИ просто ошибается. Это то, над чем мы постоянно работаем над улучшением».
Prabhakar Raghavan, старший вице-президент Google по знаниям и информации, объяснил, почему компания была вынуждена закрыть функцию генерации изображений на базе ИИ в Gemini через три недели после запуска, чтобы «исправить ее».
Простыми словами, движок ИИ Google брал текстовые запросы пользователей и создавал изображения, явно пристрастные к определенному социополитическому взгляду.
Например, текстовые запросы пользователей для изображений нацистов порождали черных и азиатских нацистов. Попросив нарисовать изображение Папы Римского, Gemini ответил созданием азиатской женщины-Папы и черного Папы.
Запрос на создание изображения средневекового рыцаря привел к появлению изображений азиатских, черных и женских рыцарей.
Источник: www.ferra.ru