回到首頁
個人.家庭.數位化 - 數位之牆



產業動態 Supermicro推出即部署生成式AI SuperCluster
香港商霍夫曼公關公司 本新聞稿發佈於2024/03/25,由發布之企業承擔內容之立場與責任,與本站無關

Supermicro, Inc.(納斯達克股票代碼:SMCI)推出最新產品組合,加速生成式AI部署。NVIDIA表示,其技術助力製造者實現全球市場的AI加速。Supermicro SuperCluster提供高效冷卻技術、高速網路結構,以及可客製化的儲存結構,為LLM訓練和推論提供優化性能。

 
■ 發布/輪播新聞稿 新聞稿直達14萬電子報訂戶刊登新聞稿:按此
 
Supermicro, Inc.(納斯達克股票代碼:SMCI)為AI、雲端、儲存和 5G/邊緣領域的全方位 IT 解決方案製造商,宣布推出其最新產品組合,加速生成式AI部署。Supermicro SuperCluster解決方案能為現今及未來大型語言模型(Large Language Model,LLM)硬體基礎設施提供核心建構組件。

Supermicro三款強大的SuperCluster解決方案現已上市並可被用於生成式AI工作運行。這些解決方案內的4U液冷系統或8U氣冷系統是專為強大LLM訓練性能以及高度批次大小且大量的LLM推論所設計。配備了1U氣冷Supermicro NVIDIA MGXTM系統的第三款SuperCluster超級叢集則針對雲端級推論進行了最佳化。

Supermicro總裁暨執行長梁見後表示:「在AI時代,運算力單位是以叢集來衡量,不再只用伺服器數量作為依據。我們的全球製造產能已擴大到每月5,000台機櫃,能比以往更快地為客戶提供完整生成式AI運算叢集。只需透過我們採用400Gb/s NVIDIA Quantum-2 InfiniBand和Spectrum-X Ethernet網路技術的數個可擴充型叢集建構組件,一個64節點的運算叢集能支援具有72TB HBM3e的512個NVIDIA HGX H200 GPU。結合了NVIDIA AI Enterprise軟體的Supermicro SuperCluster解決方案非常適合用於針對現今企業與雲端基礎架構的LLM訓練,且最高可達兆級參數。互連的GPU、CPU、記憶體、儲存、以及網路硬體在被部署至機櫃內的多個節點後形成現今AI技術的基礎。Supermicro的SuperCluster解決方案為快速發展的生成式AI與LLM提供了核心建構組件。」

NVIDIA GPU產品部門副總裁Kaustubh Sanghani則表示:「NVIDIA最新型GPU、CPU、網路與軟體技術助力能讓系統製造者為全球市場內不同類型的下一代AI工作運行實現加速。透過結合基於Blackwell架構產品的NVIDIA加速運算平台,Supermicro能提供客戶所需要的前沿伺服器系統,且這些系統可容易地被部署至資料中心。」

Supermicro 4U NVIDIA HGX H100/H200 8-GPU系統透過液冷技術使8U氣冷系統運算密度加倍,同時降低能耗量與總體擁有成本(TCO)。這些系統旨在為了支援下一代NVIDIA的Blackwell架構GPU。Supermicro冷卻分配單元(Cooling Distribution Unit,CDU)與冷卻分配分流管(Cooling Distribution Manifold,CDM)是主要冷卻液流動脈絡,可將冷卻液輸送至Supermicro定製的直達晶片(Direct-to-Chip,D2C)冷板,使GPU和CPU處於最佳運行溫度,進而實現效能最大化。此散熱技術可使一整座資料中心電力成本降低最多40%,同時節省資料中心占地空間。
搭載NVIDIA HGX H100/H200 8-GPU的系統非常適合用於訓練生成式Al。透過NVIDIA® NVLink®技術高速互連的GPU,以及高GPU記憶體頻寬與容量,將成為符合成本效益地運行LLM的核心關鍵。Supermicro的SuperCluster具備龐大GPU共用資源,能作為一個AI超級電腦進行運算作業。

無論是導入一個最初就以數兆級詞元(token)資料集進行完整訓練的大型基礎模型,或開發一個雲端級LLM推論基礎架構,具有無阻式400Gb/s網路結構的主幹枝葉式架構(Spine and Leaf Network Topology)都能從32個運算節點順暢地擴展至數千個節點。針對完全整合的液冷系統,Supermicro在產品出廠前會藉由經認證的測試流程徹底驗證與確保系統運行成效與效率。

採用了NVIDIA GH200 Grace Hopper Superchip的Supermicro NVIDIA MGX™系統設計將能打造出未來AI運算叢集的架構樣式以解決生成式AI的關鍵瓶頸:運行高推論批次大小的LLM所需的GPU記憶體頻寬及容量,進而降低營運成本。具256節點的運算叢集能實現雲端級大量推論算力引擎,並易於部署與擴充。

配置4U液冷系統的5組機櫃或8U氣冷系統的9組機櫃型SuperCluster

• 單一可擴充單元含256個NVIDIA H100/H200 Tensor Core GPU
• 液冷技術能支援512個GPU、64個節點,而其體積空間等同於搭載256個 GPU的氣冷式32節點解決方案
• 單一可擴充單元含具有20TB HBM3的NVIDIA H100或具有36TB HBM3e的NVIDIA H200
• 一對一網路傳輸結構可為每個GPU提供最高400 Gbps頻寬,並支援 GPUDirect RDMA與GPUDirect Storage技術,實現最高兆級參數的LLM訓練
• 400G InfiniBand或400GbE Ethernet網路交換器結構採用高度可擴充型主幹枝葉式網路架構技術,包括NVIDIA Quantum-2 InfiniBand和NVIDIA Spectrum-X Ethernet網路平台
• 可客製化AI資料管道儲存結構具有領先業界的平行檔案系統選項技術
• 搭載NVIDIA AI Enterprise 5.0軟體,能支援可加速大規模AI 模型部署的新型NVIDIA NIM推論微服務

配置1U氣冷NVIDIA MGX系統的9組機櫃型SuperCluster
• 單一可擴充單元含256個GH200 Grace Hopper Superchips
• 最高可達144GB HBM3e加480GB LPDDR5X的統一記憶體,適用於雲端級、大量、低延遲和高批次推論,並能在單一運算節點中容納超過700億個參數規模的模型
• 400G InfiniBand或400GbE Ethernet網路交換器結構採用了高度可擴充型主幹枝葉式網路架構技術
• 每節點最多含8個內建E1.S NVMe儲存裝置
• 可客製化AI資料管道儲存結構搭配NVIDIA BlueField®-3 DPU與領先業界的平行檔案系統選項,能為每個GPU提供高傳輸量、低延遲的儲存裝置存取
• NVIDIA AI Enterprise 5.0軟體

透過GPU間可實現的頂級互連效能,Supermicro的SuperCluster解決方案針對LLM訓練、深度學習,以及大量且高批次推論進行了最佳化。Supermicro的L11和L12驗證測試結合了現場部署服務,可為客戶提供更順暢體驗。客戶收到隨插即用的可擴充單元後能實現資料中心內的輕鬆部署,並可更快獲取成果。

- 新聞稿有效日期,至2024/04/25為止


聯絡人 :白蕙綾
聯絡電話:02 7713 6779
電子郵件:cpai@hoffman.com

上一篇:SeaPRwire推出面向數字資產和區塊鏈專案的前沿新聞稿解決方案
下一篇:新加坡和香港企業將引領全球科技預算增長,開拓新收入來源



 
搜尋本站


最新科技評論

我在中國工作的日子(十四)阿里巴巴敢給股票 - 2023/07/02

我在中國工作的日子(十三)上億會員怎麼管理 - 2023/06/25

我在中國工作的日子(十二)最好的公司支付寶 - 2023/06/18

我在中國工作的日子(十一)兩個女人一個男人 - 2023/06/11

我在中國工作的日子(十)千團大戰影音帶貨 - 2023/06/04

我在中國工作的日子(九)電視購物轉型電商 - 2023/05/28

我在中國工作的日子(八)那些從台灣來的人 - 2023/05/21

我在中國工作的日子(七)嘉丰資本擦身而過 - 2023/05/14

我在中國工作的日子(六)跟阿福有關的人們 - 2023/05/07

■ 訂閱每日更新產業動態
RSS
RSS

當月產業動態

Information

 

 


個人.家庭.數位化 - 數位之牆

欲引用本站圖文,請先取得授權。本站保留一切權利 ©Copyright 2023, DigitalWall.COM. All Rights Reserved.
Question ? Please mail to service@digitalwall.com

歡迎與本站連結!