Google представила открытую модель эмбеддингов для локальных AI-приложений

Google объявила о запуске EmbeddingGemma, новой модели эмбеддингов, предназначенной для работы прямо на устройствах без подключения к интернету. Модель имеет 308 миллионов параметров, поддерживает более 100 языков и демонстрирует лучшие показатели среди всех открытых моделей размером до 500 млн параметров по тесту MTEB.

После квантования модель потребляет менее 200 МБ оперативной памяти, а генерация эмбеддингов занимает около 20 миллисекунд на устройствах с EdgeTPU, что делает её удобной для локальных и мобильных AI-приложений.

Особенностью EmbeddingGemma является технология Matryoshka Representation Learning, которая позволяет использовать разные размеры векторов — от 768 до 128 — в зависимости от задач и ресурсов устройства. Контекстное окно достигает 2000 токенов, что повышает гибкость применения модели в различных сценариях.

Google уже интегрировала EmbeddingGemma с популярными инструментами, включая SentenceTransformers, Llama.cpp, LangChain и Transformers.js. Веса модели открыты для использования и коммерческой адаптации, что делает её доступной для широкого круга разработчиков и компаний, работающих с локальными AI-системами.

По словам Google, EmbeddingGemma открывает новые возможности для приложений, которым критически важно быстрое и эффективное создание эмбеддингов без облачных вычислений, включая персональные ассистенты, поисковые системы и инструменты анализа данных на устройствах пользователей.

Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Источник

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии