Google анонсировала свой новый облачный суперкомпьютер A3, который теперь доступен в режиме закрытого предварительного просмотра.
Новая электростанция может использоваться для обучения моделей машинного обучения (ML), продолжая недавнюю попытку технологического гиганта предложить облачную инфраструктуру для целей ИИ, например новую. G2 (откроется в новой вкладке)первая облачная виртуальная машина (ВМ), использующая новый графический процессор NVIDIA L4 Tensor Core.
В одном запись в блоге (откроется в новой вкладке)Компания заявила: «Суперкомпьютеры Google Compute Engine A3 специально созданы для обучения и эксплуатации самых сложных моделей ИИ, которые лежат в основе современных инноваций в области генеративного ИИ и крупных языковых моделей».
А2 против А3
В A3 используется графический процессор Nvidia H100, преемник популярного A100, который использовался для питания предыдущего A2. Он также используется для питания ChatGPT, автора ИИ, который положил начало генеративной гонке ИИ своим запуском в ноябре прошлого года.
A3 также является первой виртуальной машиной, в которой графические процессоры используют специально разработанные Google VPU со скоростью 200 Гбит/с, что позволяет в десять раз увеличить пропускную способность сети по сравнению с предыдущими виртуальными машинами A2.
A3 также будет использовать центр обработки данных Google Jupiter, который может масштабироваться до десятков тысяч взаимосвязанных графических процессоров и «обеспечивает реконфигурируемые оптические каналы с полной пропускной способностью, которые могут регулировать топологию по мере необходимости».
Google также утверждает, что «пропускная способность рабочей нагрузки… неотличима от более дорогих, готовых, неблокирующих сетевых структур, что приводит к более низкой общей стоимости владения» для обучения больших моделей машинного обучения».
Когда дело доходит до рабочих нагрузок вывода, которые являются фактической работой генеративного ИИ, Google снова утверждает, что A3 достигает 30-кратного увеличения производительности вывода по сравнению с A2.
В дополнение к восьми процессорам H100 с удвоенной пропускной способностью 3,6 ТБ/с, другие выдающиеся характеристики A3 включают масштабируемые процессоры Intel Xeon 4-го поколения следующего поколения и 2 ТБ оперативной памяти в модулях DIMM DDR5 с частотой 4800 МГц.
«Виртуальные машины Google Cloud A3 на базе графических процессоров NVIDIA H100 следующего поколения ускорят обучение и доставку генеративных приложений ИИ, — сказал Ян Бак, вице-президент по гипермасштабированию и высокопроизводительным вычислениям в NVIDIA.
В приветственном объявлении на Google I/O 2023 (откроется в новой вкладке)Компания также заявила, что поддержка генеративного ИИ в Vertex AI теперь будет доступна большему количеству клиентов, что позволит создавать модели машинного обучения на основе полностью управляемой инфраструктуры, не требующей обслуживания.
Клиенты также могут развернуть A3 в Google Kubernetes Engine (GKE) и Compute Engine, что означает, что они получают поддержку автоматического масштабирования и оркестровки рабочих нагрузок, а также имеют право на автоматические обновления.
Похоже, что Google использует подход B2B, когда дело доходит до ИИ, а не запускает ИИ для всех, с кем можно поиграть, возможно, потому, что он был сожжен злополучным запуском своего конкурента ChatGPT Google Bard. Тем не менее, Google I/O также анонсировала PaLM 2, который является его преемником и считается более мощным, чем другие LLM, так что за этой областью следует следить.