Китайский стартап DeepSeek представил языковые модели DeepSeek-V3.2 и DeepSeek-V3.2‑Speciale. Первая стала стабильной версией экспериментальной V3.2‑Exp, вышедшей осенью, и позиционируется как надёжный инструмент для ежедневной работы. Разработчики утверждают, что по скорости и качеству ответов она сопоставима с GPT‑5.
Версия Speciale получила улучшенные способности к рассуждению. В ряде тестов она обошла модели Gemini 3.0 Pro и GPT‑5 High. Особенно заметные результаты модель показала в AIME и HMMT, где проверяются навыки решения математических задач, а также в IMO-AnswerBench с сотнями олимпиадных заданий.
Помимо этого, Speciale продемонстрировала высокий уровень в GPQA Diamond, охватывающем физику, биологию и химию, и в «Последнем экзамене человечества» (HLE), включающем академические вопросы по точным и гуманитарным дисциплинам.
Компания подчеркнула, что расширенные возможности Speciale требуют серьёзных вычислительных ресурсов и большого расхода токенов. Поэтому сейчас доступ к этой версии открыт только через API.
DeepSeek-V3.2 уже доступна в веб-версии, мобильных приложениях и через API. С кодом обеих новинок можно ознакомиться на Hugging Face.
Источник: lifehacker.ru