Mistral Small 3.1 и DeepCoder-14B-Preview появились в библиотеке Ollama

В библиотеке Ollama, популярной платформы для локального запуска LLM, сегодня появились две новые модели: Mistral Small 3.1 и DeepCoder-14B-Preview.

Mistral Small 3.1 демонстрирует значительные улучшения в текстовой производительности, понимании мультимодальных данных и значительно расширенное окно контекста до 128 000 токенов. Модель превосходит сопоставимые модели, такие как Gemma 3 и GPT-4o Mini, при этом сохраняя впечатляющую скорость вывода в 150 токенов в секунду. Модель выпущена под лицензией Apache 2.0. И она работает на одной RTX 4090 или Mac с 32 ГБ оперативной памяти. https://ollama.com/library/mistral-small3.1

DeepCoder-14B-Preview зарекомендовала себя как ведущая модель для логического анализа кода. Обученная на основе Deepseek-R1-Distilled-Qwen-14B с использованием распределенного RL, она достигает впечатляющей точности 60,6% Pass@1 на LiveCodeBench – улучшение на 8% – сопоставимой с производительностью o3-mini-2025-01-031 (Low) и o1-2024-12-17, при этом используя всего 14 миллиардов параметров. https://ollama.com/library/deepcoder

Хотите попробовать эти модели, но не хватает ресурсов? Вы можете установить их в наш AI чат-бот, включая возможность почасовой аренды сервера. https://hostkey.ru/apps/machine-learning/ollama-ai-chatbot/

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии