Если текущие тенденции сохранятся, центры обработки данных для обучения и работы искусственного интеллекта вскоре могут содержать миллионы чипов, стоить сотни миллиардов долларов и потреблять мощность, эквивалентную электросети крупного города. Это согласно новому исследованию исследователей из Джорджтауна, Epoch AI и Rand, которые рассмотрели траекторию роста центров обработки данных AI по всему миру с 2019 по этот год. Соавторы составили и проанализировали набор данных из более чем 500 проектов центров обработки данных AI и обнаружили, что, хотя вычислительная производительность центров обработки данных ежегодно увеличивается более чем вдвое, также растут и требования к питанию и капитальные затраты.
Полученные результаты иллюстрируют сложность создания необходимой инфраструктуры для поддержки развития технологий AI в ближайшее десятилетие. OpenAI, которая недавно заявила, что примерно 10% населения мира использует ее платформу ChatGPT, заключила партнерство с SoftBank и другими, чтобы собрать до 500 миллиардов долларов на создание сети центров обработки данных AI в США ( и возможно, в других местах ). Другие технологические гиганты, включая Microsoft, Google и AWS, коллективно пообещали потратить сотни миллионов долларов только в этом году на расширение своих центров обработки данных.
Согласно исследованию Georgetown, Epoch и Rand, расходы на оборудование для центров обработки данных AI, таких как Colossus от xAI, стоимость которого составляет около 7 миллиардов долларов, увеличивались в 1,9 раза каждый год в период с 2019 по 2025 год, в то время как потребности в электроэнергии увеличивались в 2 раза ежегодно за тот же период. (Colossus потребляет около 300 мегаватт электроэнергии, что соответствует 250 000 домохозяйствам.)
Источники изображений: Epoch AI
Исследование также показало, что центры обработки данных стали намного более энергоэффективными за последние пять лет, при этом один из ключевых показателей — вычислительная производительность на ватт — увеличивался в 1,34 раза каждый год с 2019 по 2025 год. Однако этих улучшений будет недостаточно, чтобы компенсировать растущие потребности в электроэнергии. К июню 2030 года ведущий центр обработки данных ИИ может иметь 2 миллиона чипов ИИ, стоить 200 миллиардов долларов и требовать 9 ГВт электроэнергии — примерно выход девяти ядерных реакторов.
Не новость, что потребности в электроэнергии для центров обработки данных AI стремительно растут, создавая значительную нагрузку на электросеть . Согласно недавнему анализу Wells Fargo, прогнозируется, что потребление энергии центрами обработки данных к 2030 году вырастет на 20%. Это может привести к пределу использования возобновляемых источников энергии, зависящих от изменчивой погоды, что приведет к росту использования невозобновляемых, экологически вредных источников электроэнергии, таких как ископаемое топливо.
Центры обработки данных AI также представляют другие экологические угрозы , такие как высокое потребление воды, и занимают ценную недвижимость, а также подрывают налоговую базу штата. Исследование Good Jobs First, некоммерческой организации из Вашингтона, округ Колумбия, оценивает, что по крайней мере 10 штатов теряют более 100 миллионов долларов в год налоговых поступлений от центров обработки данных в результате чрезмерно щедрых стимулов.
Конечно, возможно, что эти прогнозы не сбудутся или что временные масштабы окажутся неверными. Некоторые гипермасштаберы, такие как AWS и Microsoft , в последние несколько недель отказались от проектов центров обработки данных. В заметке для инвесторов в середине апреля аналитики Cowen отметили, что в начале 2025 года на рынке центров обработки данных наблюдалось «охлаждение», что свидетельствует об опасениях отрасли по поводу неустойчивого расширения.
Источник
Источник: habr.com