- Ожидается, что стойки, ориентированные на AI, будут потреблять до 1 МВт к 2030 году
- Ожидается, что средние стойки увеличатся до 30-50 кВт в течение того же периода
- Охлаждение и распространение эффективности становятся стратегическими приоритетами для будущих центров обработки данных
Стойка уже давно рассматривалась как основное единство центра обработки данных и перепроектирована в результате роста ИИ, а новая диаграмма (выше) с помощью решений для центра обработки данных Lennox показывает, как быстро развивается это изменение.
Везде, где они потребляли только несколько киловатт, прогнозы компании предположили, что к 2030 году подставка для электроэнергии, ориентированная на AI, могла достичь использования электроэнергии, которая когда-то была зарезервирована для целых объектов.
Ожидается, что средние полки центров обработки данных будут достигнуты 30-50 кВт за тот же период, что отражает устойчивый рост плотности вычислений, а контраст с рабочими нагрузками ИИ поразительно.
Новые требования к источнику питания и охлаждения
Согласно прогнозам, одна стойка ИИ может использовать энергию своего общего аналога в 20-30 раз, что создает новые требования для источника питания и инфраструктуры охлаждения.
Тед Пулфер, директор Lennox Data Center Solutions, сказал, что охлаждение стало важным для отрасли.
«Охлаждение, когда -то« часть поддерживающей инфраструктуры », теперь вышло на передний план разговора, обусловленная увеличением плотности расчетов, рабочей нагрузкой ИИ и растущим интересом к таким подходам, как жидкое охлаждение», — сказал он.
Пульфер описал уровень сотрудничества в отрасли, который сейчас происходит. «Производители, инженеры и конечные пользователи работают в тесном сотрудничестве, чем когда -либо, делятся знаниями и экспериментированы как в лаборатории, так и в реальной лишении. Это практическое сотрудничество помогает решить некоторые из самых сложных проблем с охлаждением, с которыми мы сталкиваемся», — сказал он.
Целью доставки стойки 1 МВт электроэнергии также является перепроектирование систем.
«Вместо обычной области использования с более низким напряжением отрасль движется к высоковольтному току, такому как +/- 400 В. Это уменьшает потерю электроэнергии и размера кабеля»,- сказал Пулфер.
«Охлаждение обрабатывается« центральным »заводом CDS, который управляет жидкой рекой в дистрибьюторов стойки. Оттуда жидкость поставляется в отдельные холодные пластины, которые установлены непосредственно на самых горячих компонентах сервера».
Большинство центров обработки данных полагаются на холодные пластины сегодня, но подход имеет ограничения. Microsoft проверила микрофлюидику, в которой крошечные бороздки выгравируются в задней части чипа, так что охлаждающая жидкость может течь прямо через кремний.
В ранних испытаниях тепло удаляли в три раза более эффективно, чем холодные пластины в зависимости от рабочей нагрузки, а повышение температуры графического процессора было снижено на 65%.
Объединяя этот дизайн с ИИ, который организует горячие точки через чип, Microsoft смогла направлять охлаждающую жидкость с большей точностью.
Хотя Hyperskaller может доминировать в этой комнате, Пульфер считает, что у меньших операторов все еще есть место для конкуренции.
«Иногда объем заказов, которые движутся по заводам, может привести к доставке светильников, которые открывают дверь для других, чтобы достичь ценности. На этом быстром рынке ловкость и инновации по -прежнему являются важными сильными сторонами во всей отрасли», -сказал он.
Ясно, что электричество и отторжение на тепло в настоящее время являются центральными проблемами и больше не являются вторичными для расчета производительности.
Как говорит Пульфер, для тепла «важно поддерживать плавные, надежные, надежные и устойчивые цифровые основы мира».
К концу десятилетия форма и масштаб стойки могут определить будущее цифровой инфраструктуры.