Модель Qwen3-VL официально стала совместима с фреймворком llama.cpp, что позволяет запускать её прямо на локальных устройствах без необходимости подключения к облаку. Теперь пользователи могут использовать Qwen3-VL на CPU, CUDA, Metal, Vulkan и других аппаратных бэкендах, делая работу с мультимодальной моделью максимально гибкой и автономной.
Доступны GGUF-веса для всех версий — от компактной 2B до флагманской 235B. Это значит, что модель можно адаптировать под любые ресурсы.
Такой шаг открывает новые возможности для офлайн-использования AI. Qwen3-VL можно применять для анализа изображений, видео, текста и других типов данных без риска утечки информации и зависимости от внешних сервисов.
Подробнее ознакомиться с релизом можно на платформах:
Hugging Face
ModelScope
Pull Request на GitHub
Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News.
Источник: habr.com