Вчера, 5 августа, компания OpenAI официально представила миру семейство больших языковых моделей gpt-oss с открытым исходным кодом (стоит отметить, что последний раз компания выпускала открытую модель в 2019 году — тогда в общий доступ отправили GPT-2). Это значит, что любой желающий может бесплатно загрузить LLM с одного из доступных ресурсов, дабы затем запускать модель локально на своём компьютере для выполнения каких-либо поставленных задач. На данный момент это семейство LLM состоит из двух моделей — старшей gpt-oss-120b на 120 миллиардов параметров и младшей gpt-oss-20b на 20 миллиардов параметров.
Правда, поэкспериментировать со старшей языковой моделью на домашнем ПК всё же не выйдет — gpt-oss-120b создана для крайне сложных задач, которые будут решаться на производительных станциях, и помещается в графический ускоритель NVIDIA H100 (такая «видеокарта» стоит примерно 25 тысяч долларов). Модель gpt-oss-20b создана для меньших задержек при генерации ответов, она более «лёгкая» и, по данным различных источников, её можно запустить даже на ПК с 16 ГБ памяти (речь, скорее всего, идёт о видеопамяти, а не оперативной памяти — это важный момент). Соответственно, система для работы с этой версией модели будет куда более доступной. Изображение: OpenAI
Более того, новые большие языковые модели оказались крайне производительными — на данный момент среди LLM с открытым исходным кодом это самые мощные решения на рынке. Например, в рамках бенчмарка Codeforces (решение задач, связанных с программированием) старшая модель gpt-oss-120b набрала 2622 балла — это лишь немного меньше, чем у o3 и o4-mini (2706 и 2719 баллов соответственно). Ключевой момент в том, что открытая модель компании смогла превзойти китайскую модель DeepSeek R1, которая длительное время выступала лидером на рынке. Похожие результаты наблюдаются и в HLE (сложный бенчмарк, сформированный на базе множества вопросов по разным предметам). Изображения: TechCrunch
При этом у gpt-oss есть ещё одно очень важное преимущество по сравнению с другими открытыми моделями — суть в том, что gpt-oss-120b и gpt-oss-20b поддерживают настройку уровня глубины рассуждения. То есть если пользователю нужен более точный ответ на сложный вопрос, он может поставить максимальный уровень рассуждений и получить максимальную точность вывода. Изображение: OpenAI
Если же ждать ответа нет времени, можно поставить минимальный уровень рассуждения — в этом сценарии нагрузка на «железо» будет меньше.
Источник: trashbox.ru