Недавно Google столкнулся с неожиданной проблемой: их ИИ, известный как Google Gemini, посоветовал пользователю есть камни для улучшения пищеварения.
Этот инцидент вызвал широкий резонанс и заставил инженеров компании объяснить, как такое могло произойти.
Они объяснили, что AI Overviews, встроенные в поисковик, работают иначе, чем традиционные чат-боты и LLM продукты.
Технология интегрирована с основными системами ранжирования веб-страниц и предназначена для выполнения традиционных задач поиска, таких как выявление релевантных и качественных результатов.
Это позволяет Overviews предоставлять ссылки на проверенные источники, что, по их мнению, должно было снизить вероятность ошибок.
Тем не менее, проблемы возникают в ситуациях с недостатком качественного контента по запросу или с сатирическим содержанием.
В данном случае рекомендация есть камни была вызвана данными из сатирических или некорректных источников, которые случайно попали в результаты поиска.
Инженеры подчеркнули, что проблема была связана с так называемыми «пробелами данных», когда качественная информация по запросу отсутствует или её очень мало.
Источник: www.ferra.ru