Компания Nvidia представила результаты тестов, демонстрирующие, что её новейшие серверы для задач искусственного интеллекта способны увеличить скорость обработки запросов (инференс) современных продвинутых ИИ-моделей, включая популярные китайские разработки, вплоть до десяти раз по сравнению с предыдущим поколением оборудования. Ключевым фактором ускорения стала не просто вычислительная мощность отдельных чипов, а именно серверная архитектура, позволяющая эффективно объединять десятки GPU в единую систему. Особое внимание Nvidia уделила моделям, построенным на архитектуре «смесь экспертов» (Mixture of Experts, MoE). Этот подход, делающий большие языковые модели (LLM) более эффективными за счёт разделения задач между специализированными внутренними модулями («экспертами»), получил широкое распространение в 2025 году. Толчком к этому послужил успех китайской компании DeepSeek, представившей высокопроизводительную открытую модель, которая требовала для обучения меньше ресурсов Nvidia для обучения. Вслед за этим технику MoE начали применять OpenAI, Mistral и китайская компания Moonshot AI, которая в июле выпустила собственную высоко оценённую открытую модель Kimi. Тем не менее Nvidia подчёркивает, что, несмотря на меньшую зависимость MoE от её чипов на этапе обучения, именно её серверы остаются оптимальными для массового развёртывания моделей с архитектурой MoE.
Источник: mobile-review.com