DeepSeek-V3.2-Exp: китайцы снова мутят что-то хитрое

DeepSeek выпустили экспериментальную модель DeepSeek-V3.2-Exp — видимо, промежуточный шаг к их следующему «монстру». Главное новшество — DeepSeek Sparse Attention: хитрый способ сделать работу трансформеров на длинных текстах быстрее и дешевле.

Если по-простому: модель учится «не тратить внимание впустую». Вместо того чтобы пересчитывать все связи между словами, она обрабатывает только важные — и при этом почти не теряет качество ответа. Бенчмарки показывают, что результат остался на уровне прошлой версии V3.1, но вычислительная эффективность заметно выросла.

На фоне этого в таблицах видно забавную деталь: где-то V3.2 чуть просела (например, Humanity’s Last Exam), а где-то подросла (AIME 2025, Codeforces). Короче, стабильность качества при ускорении — звучит как «мы тихо оптимизируем и готовим что-то большое».

Benchmark

DeepSeek-V3.1-Terminus

DeepSeek-V3.2-Exp

Reasoning Mode w/o Tool Use

MMLU-Pro

85.0

85.0

GPQA-Diamond

80.7

79.9

Humanity’s Last Exam

21.7

19.8

LiveCodeBench

74.9

74.1

AIME 2025

88.4

89.3

HMMT 2025

86.1

83.6

Codeforces

2046

2121

Aider-Polyglot

76.1

74.5

Agentic Tool Use

BrowseComp

38.5

40.1

BrowseComp-zh

45.0

47.9

SimpleQA

96.8

97.1

SWE Verified

68.4

67.8

SWE-bench Multilingual

57.8

57.9

Terminal-bench

36.7

37.7

Ну и да, всё это open source: можно уже потыкать на Hugging Face, запустить через vLLM или SGLang (докер-образы готовы).

Похоже, DeepSeek делает ставку на то, чтобы длинные контексты стали дешевле и быстрее. А значит — впереди, возможно, совсем другие масштабы для ИИ-агентов и RAG-систем.

Источник | Hugging Face

Русскоязычное сообщество про AI в разработке

Друзья! Эту новость подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-ассистентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии