- Будущие чипы для хранения KI могут потребовать больше электричества, чем целые промышленные зоны вместе
- В памяти 6 ТБ в графическом процессоре звучит потрясающе, пока не потянет свои силы
- Стеки HBM8 теоретически впечатляют, но на практике это ужасно для каждой энергии, пугающей компании, пугающей
Непрерывное стремление расширить производительность обработки ИИ приводит к новой эре для технологий памяти, но это связано с призом, которая вызывает практические и экологические проблемы, предупредили эксперты.
Исследование Корейского института науки и технологий (KAIST) и лаборатории межкомнатных и пакетов Terabyte (TERA) предполагает, что ускорители AI-GPU, оснащенные 6 ТБ, могут стать реальностью.
Хотя эти разработки технически впечатляют, но также показывают крутые потребности в электричестве и растущую сложность, которая связана с пересечением пределов инфраструктуры ИИ.
Емкость хранения ki -gpu увеличивается с огромным энергопотреблением
А Дорожная карта Представленный разработка от HBM4 до HBM8 получит большую прибыль в области полосы пропускания, стеков хранения и методов охлаждения.
С 2026 года с HBM4 платформы Nvidia Rubin и AMDS Instinct -MI400 будут содержать до 432 ГБ памяти, в результате чего полоса пропускания достигает почти 20 ТБ/с.
Этот тип хранения используется непосредственно при методах жидкого охлаждения и пользовательской упаковки для управления плотностью мощности от 75 до 80 Вт на стек.
HBM5, который прогнозируется на 2029 год, удваивает следы ввода/вывода и движется к охлаждению погружения, с до 80 ГБ на стек 100 Вт.
Тем не менее, потребности в электроэнергии будут продолжать расти с HBM6, который ожидается к 2032 году, и увеличивает диапазон до 8 ТБ/с, а способность укладки до 120 ГБ, и каждый из них удаляется до 120 Вт.
Эти цифры быстро складываются, когда рассматриваются полные пакеты GPU, которые, как ожидается, будут потреблять до 5920 Вт на чип, предполагая 16 стеков HBM6 в одной системе.
Когда HBM7 и HBM8 прибывают, цифры простираются в ранее невообразимую область.
HBM7, который ожидается около 2035 года, три -времени пропускная способность до 24 ТБ/с и обеспечивает до 192 ГБ на стек. Архитектура поддерживает 32 стека памяти и нажимает общую емкость для хранения выше 6 ТБ на 6 ТБ, но требование к электроэнергии достигает 15 360 Вт на пакет.
По оценкам, потребление электроэнергии на 15 360 -W знаменует собой резкое увеличение, что соответствует семикратному увеличению всего за девять лет.
Это означает, что миллион из них будет потреблять 15,36 ГВт в центре обработки данных, число, которое соответствует приблизительно всей наборной способности генерации ветра в Великобритании в 2024 году.
HBM8, который прогнозируется на 2038 год, расширяет емкость и полосу пропускания с 64 ТБ/с на стек и до 240 ГБ с использованием скорости 16 384 E/A и 32 -Гбит/с.
У этого также есть коаксиальный TSV, встроенное охлаждение и двойной интерпозец.
Растущие требования к выводу AI и LLM (модель большого языка) заставили исследователей ввести такие концепции, как HBF (вспышка с высокой диапазоной) и HBM-центрированные вычисления.
Эти конструкции предлагают интегрировать NAND Flash и LPDDR Storage в стек HBM и полагаться на новые методы охлаждения и связи, но их выполнимость и эффективность реального мира должны продолжать быть доказаны.