Hugging Face поделится вычислительными ресурсами на $10 млн для борьбы с монополией крупных компаний в области ИИ

Платформа машинного обучения Hugging Face выделяет $10 млн на бесплатные графические процессоры в рамках проекта ZeroGPU, чтобы помочь разработчикам создавать новые открытые технологии искусственного интеллекта. Цель — помочь небольшим разработчикам, учёным и стартапам противостоять централизации достижений ИИ.

Генеральный директор Hugging Face Клем Деланг отметил, что платформа стала «прибыльной или близкой к прибыльной» и недавно привлекла $235 млн финансирования при оценке в $4,5 млрд.

Деланг обеспокоен недостаточной конкуренцией стартапов в сфере искусственного интеллекта с технологическими гигантами. Наиболее значительные достижения, такие как GPT-4, алгоритмы поиска Google и система полного самоуправления Tesla, остаются в собственности компаний-разработчиков. Цель Hugging Face — сделать новейшие технологии искусственного интеллекта доступными каждому.

«Если вы выберете путь с открытым исходным кодом, то попадёте в мир, в котором большинство компаний, организаций, некоммерческих организаций, политиков и регуляторов действительно тоже могут использовать ИИ. Таким образом, это гораздо более децентрализованный путь без слишком большой концентрации власти, что, на мой взгляд, делает мир лучше», — сказал Деланг.

Доступ к вычислениям представляет собой серьёзную проблему для построения больших языковых моделей, поэтому такие компании, как OpenAI и Anthropic, заключают сделки с поставщиками облачных вычислений. Hugging Face стремится уравнять правила игры.

ZeroGPU будут доступны через Hugging Face’s Spaces, хостинговую платформу для публикации приложений, на которой, по данным компании, на данный момент создано более 300 тысяч демонстраций искусственного интеллекта на ЦП или платных графических процессорах. Доступ к общим графическим процессорам определяется использованием, поэтому свободные мощности будут постоянно распределяться между разными участниками. В ZeroGPU используются графические процессоры Nvidia A100, которые обеспечивают примерно половину скорости вычислений по сравнению с H100.

«Очень сложно получить достаточное количество графических процессоров от основных поставщиков облачных услуг, так как нужно брать на себя обязательства по очень большим объёмам на длительные периоды времени», — сказал Деланг.

Обычно компания обращается к облачному провайдеру, такому как Amazon Web Services, для защиты ресурсов графического процессора. Такая схема ставит в невыгодное положение малые компании, независимых разработчиков и учёных, которые работают в небольших проектах и не могут предсказать, будут ли они успешными.

Эндрю Рид, инженер по машинному обучению в Hugging Face, уже создал приложение, которое визуализирует прогресс проприетарных и открытых программ LLM с течением времени в соответствии с оценками LMSYS Chatbot Arena. Оно демонстрирует, что разрыв между ними постепенно снижается.

Ранее Google выпустила открытые языковые модели Gemma 2B и 7B с технологиями, которые применяла в закрытой Gemini. Между тем Qualcomm представила платформу AI Hub с библиотекой из 75 оптимизированных ИИ-моделей, а Intel опубликовала набор инструментов OpenVINO 2024.0 для нейросетей с бенчмарками для развёртывания ИИ-систем на различном оборудовании.

Источник: habr.com

0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии