Наушники научатся «видеть» окружающий мир — и в этом их главное преимущество. Разбираемся, зачем Apple интегрирует камеры в беспроводной аксессуар, если рынок ждет умные очки.
Apple продолжает развивать искусственный интеллект в своей экосистеме, и теперь компания работает над новой версией AirPods с интегрированными камерами, сообщает Bloomberg. Этот шаг — часть более масштабной стратегии по внедрению Apple Intelligence в устройства бренда. Камеры в наушниках смогут анализировать окружающее пространство и передавать данные для ИИ-обработки. Это позволит пользователям получать подсказки и визуальную информацию без необходимости доставать смартфон.
Как это работает
Концепция интеллектуального зрения уже внедрена в Apple Intelligence на iPhone 16. Однако сейчас пользователям нужно вручную наводить камеру смартфона на предмет или местность, чтобы получить описание или координаты. Новый подход Apple убирает этот шаг: камеры в AirPods автоматически анализируют окружающее пространство и передают данные в облачные сервисы.
Предполагается, что камеры не будут полноцветными, а получат инфракрасные сенсоры. Они помогут определять глубину и распознавать объекты даже в темноте. Такая технология потребляет меньше энергии по сравнению с классическими камерами и не требует постоянного подключения к экрану.
Источник: hi-tech.mail.ru