Mistral представляет первую в Европе модель Magistral — провал среди конкурентов?

Французский стартап в области ИИ Mistral официально представил свою первую модель рассуждений Magistral. Модель представлена в двух версиях: Magistral Small с открытым исходным кодом и 24 миллиардами параметров и более мощная корпоративная версия Magistral Medium.

По словам Mistral, Magistral предназначен для «прозрачных, многоязычных рассуждений» и ориентирован на профессиональные приложения, такие как вычисления, логика программирования, деревья решений и системы, основанные на правилах. В тесте AIME2024 корпоративная версия набрала 73,6% (в ходе голосования по 64 вопросам большинство участников высказалось за принятие решений в 90% случаев), в то время как Magistral Small набрал 70,7% и 83,3% соответственно.

Magistral соответствует оригинальной версии модели рассуждений Deepseek R1

Это ставит Magistral примерно на один уровень с первой моделью Deepseek-R1, выпущенной в январе, но всё же значительно отстаёт от недавно обновлённой R1-0528, а также от OpenAI o3 и последней версии Gemini Pro 2.5 от Google. Кажется немного странным сравнивать Magistral с устаревшей моделью, но, возможно, у Mistral были на то причины, помимо желания сделать Magistral лучше среди конкурентов.

На этой диаграмме Deepseek R1-0528 сравнивается с оригинальной моделью Deepseek и другими ведущими моделями логического вывода. В Mistral Magistral сравнивается только с первым выпуском Deepseek-R1, выпущенным в январе. 

Mistral утверждает, что Magistral может обрабатывать «цепочки рассуждений» на разных языках и в разных системах письма. Чат-бот компании Le Chat теперь поддерживает «режим размышлений», который в сочетании с быстрыми ответами позволяет получать ответы намного быстрее, чем другие системы.

В соответствии со своим подходом к открытому исходному коду, компания Mistral сделала Magistral Small доступной для использования и модификации всеми желающими.

Для тех, кто интересуется технической стороной вопроса, в магистерской диссертации (PDF) подробно рассматривается архитектура модели, процесс обучения и показатели эффективности.

Протестировать модель можно на BotHub — платформе, где для доступа не требуется VPN и можно использовать российскую карту. По ссылке забирайте 100 000 бесплатных токенов для первых задач и начинайте работать!

Источник

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии