xAI опубликовала открытые веса Grok 2. Для запуска требуется 8 GPU

Компания xAI выложила на Huggingface открытые веса Grok 2 с инструкцией по запуску. Grok 2 основан на MoE-архитектуре с 8 локальными экспертами и максимальной длиной контекста в 131 072 токенов (ROPE-масштабирование). Для запуска авторы рекомендуют SGLang: чекпойнт весит около 500 ГБ (42 файла) и рассчитан на 8 GPU с памятью > 40 ГБ на карту.

Модель распространяется по Grok 2 Community License (обновлена 23 августа 2025): бесплатное некоммерческое и коммерческое использование до $1 млн годовой выручки; выше — нужна отдельная лицензия. Запрещено использовать модель/выводы для обучения/улучшения других базовых LLM (кроме тюнинга Grok 2). Требуется атрибуция «Powered by xAI».

Бета-версия Grok 2 была выпущена 13 августа 2025 года. В бенчмарках модель оказалась на уровне GPT-4o и Claude 3.5 Sonnet, но, конечно, серьезно проигрывает нынешним лидерам в open source.

После запуска беты Grok 3, который состоялся 19 февраля 2024 года, в xAI пообещали, что как только третья версия выйдет из беты, вторую выпустят с открытыми весами. Это обещание не было выполнено, однако после выхода gpt-oss от OpenAI было принято решение все-таки выпустить open source Grok 2, чтобы не подвергаться критике за «закрытость».

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии