Вышла Mistral NeMo — многоязычная 12B модель с поддержкой русского и 128К контекстом

Mistral AI представила Mistral NeMo, 12-миллиардную модель, разработанную в сотрудничестве с NVIDIA. Mistral NeMo предлагает большой контекст до 128 тысяч токенов.

Модель выпущена по лицензии Apache 2.0, что разрешает её коммерческое использование*.

Авторы также подготовили таблицу сравнения модели с другими моделями аналогичного уровня (Llama 3 8B и Gemma 2 9B, очевидно, что с большими моделями сравнивать не очень в пользу себе)

Модель тренировалась на многоязычных данных, и, что довольно приятно, графики включают в себя оценки эффективности на русском языке.

Русский в наличии

Также Mistral NeMo использует новый токенизатор, Tekken, основанный на Tiktoken, который был обучен на более чем 100 языках и более эффективно сжимает текст на естественном языке и исходный код, чем токенизатор SentencePiece, используемый в предыдущих моделях Mistral. В частности, он примерно на 30% эффективнее при сжатии исходного кода, китайского, итальянского, французского, немецкого, испанского и русского языков.

Веса на HuggingFace для базовой модели (base), и для модели, натренированной на исполнение инструкций пользователя (instruct).

* «Коммерческое использование модели разрешено». Автор: ура, подключу себе на сервис для всех желающих по API, наряду с Sonnet и GPT-4.

Источник: habr.com

0 0 голоса
Рейтинг новости
12406
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии