Компания Anthropic анонсировала новую модель Claude Sonnet 4.5, сделав ставку на улучшение в программировании и работе с агентными сценариями. На бенчмарке SWE-bench Verified — наборе реальных задач по исправлению ошибок в open-source-репозиториях — Sonnet 4.5 показала 77,2% успешных решений. При использовании параллельного инференса («несколько попыток с отбором лучшей») результат поднялся до 82% — лучший показатель среди открыто доступных моделей.
SWE-bench Verified считается одним из наиболее показательных тестов для оценки реальной работы ИИ-помощников в коде: система должна исправить баг так, чтобы пройти существующие тесты проекта. Для сравнения, предыдущие версии Sonnet и Opus 4.1 показывали результаты в диапазоне 72–74%. Уровень GPT-5 в тех же условиях — около 73%.
Помимо SWE-bench, Sonnet 4.5 улучшил показатели на других наборах. В тесте OSWorld (использование компьютера: работа с браузером, формами и файлами) результат составил 61,4% против 42–44% у прошлых моделей. В математике (AIME 2025) Sonnet 4.5 без инструментов показал 87%, а с кодом на Python — 100%. В финансовых задачах (Finance Agent) модель впервые вышла за 55%.
Вместе с релизом Anthropic обновила продукты: в Claude Code появились чекпоинты и улучшенный терминал, вышло нативное расширение для VS Code. Через Claude.ai теперь можно запускать код и создавать файлы (таблицы, документы, презентации), а для разработчиков представлен Agent SDK с поддержкой памяти и прав доступа для агентов.
Модель доступна уже сегодня в Claude.ai (веб и мобильные приложения), а также через API, Amazon Bedrock и Google Vertex AI. Цена не изменилась: $3 за миллион входных токенов и $15 за миллион выходных, с возможностью экономить до 90% за счёт кэширования подсказок.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.
Источник: habr.com