Supermicro宣布推出其最新SuperCluster,針對兆級參數生成式AI的需求,該方案整合NVIDIA HGX B200 8-GPU系統,並採用液冷機架設計,相較於搭載NVIDIA H100和H200的現有液冷型SuperCluster,新產品在GPU運算密度方面大幅提升。此端對端的AI資料中心解決方案不僅降低能源消耗,還能滿足全球最大規模AI專案的運算需求。  

Supermicro總裁暨執行長梁見後表示:「我們具備專業技術和交付能力,能完成規模達100,000個GPU的液冷AI資料中心專案部署。我們新推出的NVIDIA Blackwell平台SuperCluster解決方案,提供前所未有的密度與效能。透過建構組件(Building Block)技術,我們可快速設計並靈活搭配液冷或氣冷散熱配置,為未來更高效的AI運算奠定基礎。」  

Supermicro的新型SuperCluster採用垂直冷卻液分配歧管(CDM)技術,讓單一機架內運算節點數量增加,配合高效散熱冷板和改良設計的軟管系統進一步提升液冷效率。新型In-Row式冷卻液分配裝置(CDU)更能支援大型部署,搭建全面的液冷基礎架構,適合企業轉型至高效能資料中心。

針對傳統氣冷資料中心,Supermicro推出經重新設計的氣冷型NVIDIA HGX B200 8-GPU系統,支持1000W TDP Blackwell GPU,並搭載雙500W Intel Xeon或AMD EPYC 9005系列處理器,滿足高效能運算需求。這些設計進一步鞏固Supermicro作為AI與HPC領域領導者的地位。

Supermicro同步發表了多款全新基於NVIDIA技術的產品,包括支援NVIDIA GB200 Grace Blackwell超級晶片的液冷和氣冷系統。這些晶片結合NVIDIA Grace CPU與Blackwell GPU,透過NVLink-C2C技術實現革命性效能,適用於科學運算、圖神經網路(GNN)等應用,運算效能較上一代提升兩倍。

此外,搭載NVIDIA GB200 NVL72超級晶片的SuperCluster解決方案,能在單機架內構建百萬兆級超級電腦,為資料中心提供全面監控與管理功能。此系統整合72個Blackwell GPU與36個Grace CPU,並透過第五代NVLink和NVLink Switch實現高效連結,提供130TB/s的GPU通訊頻寬。

針對需要彈性配置的企業應用,Supermicro推出支援NVIDIA H200 NVL的5U PCIe加速運算系統,適用於低功耗環境和多樣化AI工作負載。NVIDIA H200 NVL的GPU透過NVLink技術連結,記憶體容量增加1.5倍,頻寬提升至1.2倍,可大幅縮短LLM(大型語言模型)微調時間並加速推論效能。

同時,Supermicro的X14與H14 5U系統能支援多達10個PCIe GPU,搭載最新Intel Xeon或AMD EPYC處理器,為高效能運算提供高度彈性。這些設計進一步拓展Supermicro的產品線,滿足企業在生成式AI時代的多元需求。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
國泰00922最新成分股調整結果出爐! 增加新光金剔除英業達