透過Supermicro的4U液冷技術,NVIDIA近期推出的Blackwell GPU能在單一GPU上充分發揮20 PetaFLOPS的AI效能,且與較早的GPU相比,能提供4倍的AI訓練效能與30倍的推論效能,並節省額外成本。配合此率先上市的策略,Supermicro近期推出基於NVIDIA Blackwell架構的完善產品系列,支援新型NVIDIA HGXTM B100、B200和GB200 Grace Blackwell Superchip。

Supermicro總裁暨執行長梁見後表示:「Supermicro 在打造與部署具有機櫃級液冷技術的AI解決方案方面持續領先業界。資料中心的液冷配置設計可幾近免費,並透過能持續降低用電量的優勢為客戶提供額外價值。我們的解決方案針對NVIDIA AI Enterprise軟體最佳化,滿足各行各業的客戶需求,並提供世界規模級效率的全球製造產能。因此我們得以縮短交付時間,更快提供搭配NVIDIA HGX H100和H200,以及即將推出的B100、B200和GB200解決方案的可立即使用型液冷或氣冷運算叢集。從液冷板到CDU乃至冷卻塔,我們的機櫃級全方位液冷解決方案最大可以降低資料中心40%的持續用電量。」

Supermicro也在台北國際電腦展(COMPUTEX 2024)展示了即將推出,並針對NVIDIA Blackwell GPU最佳化的系統,包括基於NVIDIA HGX B200的10U氣冷系統和4U液冷系統。此外,Supermicro也將提供8U氣冷型NVIDIA HGX B100系統、NVIDIA GB200 NVL72機櫃(具有72個透過NVIDIA NVLink 交換器互連的GPU)與新型 NVIDIA MGX系統(支援NVIDIA H200 NVL PCIe GPU與最新發表的NVIDIA GB200 NVL2架構)。

NVIDIA創辦人暨執行長黃仁勳表示:「生成式AI正在推動整個運算堆疊的重置,新的資料中心將會透過GPU進行運算加速,並針對AI最佳化。Supermicro設計了頂尖的NVIDIA加速運算和網路解決方案,使價值數兆美元的全球資料中心能夠針對AI時代最佳化。」

隨著各界企業快速進行生成式AI的實驗性使用,Supermicro與NVIDIA密切合作,確保完善且靈活地從AI應用的實驗和評估試行推動至作業部署和大規模資料中心AI。此順暢流程是藉由NVIDIA AI Enterprise軟體平台的機櫃、叢集級最佳化而實現,能使從初步探索至可擴展AI落地的過程更流暢無阻。

NVIDIA NIM微服務作為 NVIDIA AI Enterprise的一部分,可在無缺陷情況下提供託管生成式AI和開源部署優勢。其多功能推論運行環境透過微服務,可加速從開源模型到NVIDIA基礎模型等各類型生成式AI的部署。

此外,NVIDIA NeMo可實現透過資料庋用、進階自訂和檢索增強生成(Retrieval-Augmented Generation,RAG)的客製模型開發,以實現企業級解決方案。與搭配NVIDIA AI Enterprise的Supermicro SuperCluster整合後,NVIDIA NIM能為可擴展、加速型生成式AI作業的部署提供最快途徑。

Supermicro的SuperCluster支援NVIDIA AI Enterprise,其中包括NVIDIA NIM微服務和NVIDIA NeMo平台,能實現端對端生成式AI客製,並針對NVIDIA Quantum-2 InfiniBand以及具有每GPU 400Gb/s網速的新型NVIDIA Spectrum-X乙太網路平台最佳化,可擴展到具有數萬個GPU的大型運算叢集。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
俄烏戰爭若結束重建需求高 張安平:台泥在黑海設有3廠就近供應