Исследователи из FacebookResearch (Meta*) показали MobileLLM-Pro — новую компактную языковую модель, которая работает прямо на мобильных устройствах и при этом почти не уступает настольным LLM.
Модель весит около 1 миллиарда параметров, но способна выполнять сложные задачи: рассуждения, генерацию кода, ответы на вопросы, анализ текста и даже работу с длинным контекстом — до 128 тысяч токенов. Для сравнения, это примерно как одновременное чтение целой книги на экране телефона.
Секрет эффективности — гибридное внимание, сочетающее локальную и глобальную обработку информации (в пропорции 3 к 1). Такая архитектура снижает задержку отклика и экономит память, что особенно важно для устройств с ограниченными ресурсами.
По тестам, MobileLLM-Pro уверенно обходит Gemma 3 1B и Llama 3.2 1B, показывая более высокие результаты в рассуждениях и точности ответов. По сути, это шаг к эпохе, когда мощный AI-помощник сможет работать автономно, без подключения к серверу. Meta* делает ставку на on-device-интеллект — приватный, быстрый и всегда под рукой.
Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News.
Подробнее
Meta* признана экстремистской организацией и запрещена в РФ.
Источник: habr.com