Компания Google начала внедрять в Gemini Live новые функции ИИ, которые позволяют ей «видеть» ваш экран или камеру вашего смартфона и отвечать на вопросы в режиме реального времени, подтвердил представитель Google Алекс Джозеф в электронном письме The Verge. Эти функции появились почти через год после того, как Google впервые продемонстрировала работу «Project Astra», на которой они основаны.
Пользователь Reddit сообщил, что эта функция появилась на его телефоне Xiaomi, как заметил 9to5Google. Сегодня тот же пользователь опубликовал видео, демонстрирующее новую функцию чтения с экрана в Gemini. Это одна из двух функций, о которых Google сообщил в начале марта, что они «начнут появляться у подписчиков Gemini Advanced в рамках плана Google One AI Premium» в конце месяца.
Другая функция Astra, которая сейчас внедряется, — это видео в реальном времени, которое позволяет Gemini интерпретировать изображение с камеры вашего смартфона и отвечать на вопросы о нём. В демонстрационном видео, которое Google опубликовал в этом месяце, человек использует эту функцию, чтобы попросить Gemini помочь ему выбрать цвет краски для глазурованной керамики.
Внедрение этих функций компанией Google — свежий пример лидерства компании в области ИИ-помощников, поскольку Amazon планирует предоставить доступ к обновлению Alexa Plus, а Apple отложила выпуск обновлённой Siri. Предполагается, что обе эти функции будут аналогичны тем, которые Astra начинает внедрять сейчас. Тем временем у Samsung по-прежнему есть Bixby, но Gemini, тем не менее, является помощником по умолчанию на её телефонах.
Источник
Источник: habr.com