Будущее российских ЦОДов: к 2030 году мощности вырастут до 70000 эквивалентов Nvidia A100

Об этом сообщил вице-президент «Ростелекома» Дарий Халитов в интервью «Ведомостям». Прогнозируемая совокупная потребность в вычислительных мощностях измеряется в флопсах (FLOPS), и эти мощности могут быть обеспечены видеокартами различных производителей. Такую же оценку подтвердили и в МТС Web Services.

Самыми востребованными видеокартами в сфере ИТ на данный момент являются графические процессоры A100 и H100 производства Nvidia, отмечает источник из крупного облачного провайдера. Карта A100 обладает широкими возможностями масштабирования и применяется как в рабочих станциях с одной или несколькими видеокартами, так и в серверах, вычислительных кластерах, облачных ЦОДах и суперкомпьютерах. Модель H100 является более современной и, согласно информации от Nvidia, демонстрирует производительность в 3–6 раз выше по сравнению с A100.

Ведущие мировые ИТ-компании используют в обучении ИИ преимущественно Nvidia H100, а также более новую версию B200 и предыдущую модель A100. В России распространены в основном карты A100. Халитов отмечает, что оценить точное количество используемых таких карт в российских ЦОДах сложно, поскольку предприятия зачастую выполняют вычисления на собственной инфраструктуре.

Согласно информации ассоциации «Финтех», лидеры рынка за последние десять лет вложили в российскую сферу ИИ более 650 млрд рублей. К середине 2023 года 95% компаний уже внедрили ИИ в ключевые бизнес-процессы. Точные данные о размере рынка ИИ в 2024 году пока отсутствуют, однако предварительные оценки стартуют от 780 млрд рублей, учитывая темпы роста в 30% и более.

Правительство РФ ранее прогнозировало, что к 2025 году отечественный рынок ИИ достигнет 1 трлн рублей. По оценке «Ростелекома», объем рынка видеокарт к 2030 году увеличится в 6–7 раз.

Объем инвестиций, необходимый для обеспечения прогнозируемого количества видеокарт, зависит от того, будут ли ускорители устанавливаться исключительно в существующие ЦОДы или также в новые, отметили в «Уралэнерготел». В случае строительства новых дата-центров определяющим фактором стоимости будет доля задач ИИ в общем объеме вычислительных мощностей и регион их размещения. При сценарии инвестирования как в действующие ЦОДы, так и в новые, сумма вложений может составить от 1,5 до 2 млрд долларов.

В конце 2024 года в российских ЦОДах насчитывалось 82000 стойко-мест. В 2025 году ожидается ввод дополнительных 12 000–15 000 мест, хотя сроки запуска новых дата-центров могут переноситься, рассказали в iKS-Consulting.

Оценить точное количество видеокарт, используемых российскими компаниями, затруднительно, поскольку Nvidia ограничивает поставки своих самых производительных моделей, а заказчики не раскрывают состав своего оборудования. По оценке аналитиков, на данный момент в российских ЦОДах установлено порядка 3000–4000 видеокарт, эквивалентных A100. В мировых дата-центрах на мощности для ИИ приходится от 10% до 20%, в России этот показатель ниже. Доля ИИ-мощностей в новых развертываниях в мире составляет порядка 25–35%. Для подобных задач обычно используются высоконагруженные стойки с мощностью от 15 до 50 кВт.

Оценки частоты аренды коммерческих ЦОДов для вычислений, связанных с ИИ, не проводились. Однако на сегодняшний день таких стоек насчитывается несколько тысяч, сосредоточенных в двух-трех коммерческих дата-центрах. Эксперты предполагают, что в будущем компании будут строить собственные ЦОДы для ИИ-задач, а в коммерческих дата-центрах арендовать мощности лишь частично.

В России в сфере ИИ-ускорителей наблюдается так называемый «зоопарк». В основном используются американские видеокарты Nvidia, AMD (Instinct MI) и в меньшей степени Intel, которые поступили в страну до 2022 года. Сейчас доступ к устройствам осложнен, российские компании чаще приобретают видеокарты китайских производителей, таких как Biren Technology и Moore Threads. Однако китайские ускорители уступают решениям Nvidia в производительности в 3-8 раз при обучении нейросетей и в 2–5 раз при инференсе.

Российские компании также разрабатывают ускорители для ИИ, однако их производительность не сопоставима с A100, утверждают эксперты. Среди отечественных решений выделяются нейроускорители от «НТЦ Модуль», которые относятся к категории NPU (нейропроцессоры, предназначенные для задач ИИ и машинного обучения). По функционалу их можно сравнить с Huawei Ascend Lite или Google Edge TPU.

Возможно, в ближайшие годы количество российских видеокарт увеличится, если у отечественных разработчиков сохранится доступ к зарубежным контрактным производственным мощностям.

70 000 видеокарт A100, запланированных к 2030 году, — это относительно небольшая цифра в масштабах страны, рассказали в Dbrain. Тем не менее, достижение таких объемов в России к 2030 году вполне реально. Так, «Яндекс» и «Сбер», располагают примерно 10000 видеокарт A100. Читайте также Disaster Recovery: как выбрать подход к построению и тестированию IT-World разбирает существующие подходы к построению DR, принципы выбора оптимального решения для разных типов инфраструктуры и основные ошибки в тестировании систем аварийного восстановления.

Источник: www.it-world.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии