Тайваньская Foxconn сообщила о создании собственной большой языковой модели (БЯМ) с возможностями рассуждения под названием FoxBrain. Обучение модели контрактного производителя Apple заняло всего четыре недели.
БЯМ предназначена для анализа данных, математических вычислений, совместной работы с документами, рассуждений и генерации программного кода, отмечают в компании.
Nvidia поддержала проект FoxBrain при помощи своего суперкомпьютера Taipei-1 и услуг технического консалтинга. Для обучения модели Foxconn задействовала 120 ускорителей H100 от Nvidia.
Тайваньская компания пообещала открыть исходный код БЯМ для сотрудничества с отраслевыми партнёрами, хотя ранее FoxBrain планировали для внутреннего использования в Foxconn. В компании полагают, что ИИ-модель будет способствовать развитию производства и управления цепочек поставок.
Директор исследовательского центра ИИ Foxconn Юнг-Хуэй Ли заявил, что «модель отдаёт приоритет оптимизированным стратегиям обучения, а не простому применению вычислительной мощности» для решения проблем.
FoxBrain базируется на архитектуре Llama 3.1 от Meta*. Модель оптимизирована для используемого на Тайване традиционного китайского диалекта. Производительность БЯМ немного отстаёт от некоторых моделей китайской DeepSeek, но приближается к мировом стандартам, уверяет Foxconn.
Компания пообещала представить дополнительную информацию о FoxBrain на мероприятии Nvidia GTC 2025 в середине марта.
Источник: habr.com