10 月 15 日至 17 日於聖荷西會議中心舉行 2024 OCP 全球高峰會,NVIDIA將與 OCP 社群分享 NVIDIA GB200 NVL72 系統機電設計的關鍵組成,包括機架架構、運算與交換器托盤機構、液冷與熱環境規格,以及 NVIDIA NVLink纜線盒的體積容量,以支援更高的運算密度與網路頻寬。

NVIDIA 已經橫跨多個硬體世代做出多次正式貢獻給 OCP,其中包括 NVIDIA HGX H100 基板設計規格,以幫助生態系提供來自全球電腦製造商更多的產品選擇,還有擴大人工智慧(AI)的應用範圍。NVIDIA Spectrum-X 乙太網路平台更加符合 OCP 社群所制定的規格,可讓企業部署 OCP 認可的設備,發揮 AI 工廠的效能潛力,又能保留原本的投資及保持軟體一致性。

NVIDIA 創辦人暨執行長黃仁勳表示,「NVIDIA 從跟 OCP 合作十年的基礎出發,與產業領導廠商共同努力,制定可在整個資料中心廣泛採用的規格與設計。我們推動開放標準,協助全球各地的組織充分發揮加速運算技術的潛力,打造未來的 AI 工廠。」

電腦製造商採用基於 NVIDIA MGX 模組化架構的 GB200 NVL72,以成本效益的方式快速建設資料中心基礎設施。這款液冷系統連接 36 顆 NVIDIA Grace CPU 和 72 顆 NVIDIA Blackwell GPU,並將 72 顆 GPU 的 NVIDIA NVLink 網域整合為一個大型 GPU。這樣的設計使其在處理大型語言模型的即時推論時,速度比 NVIDIA H100 Tensor 核心 GPU 快上 30 倍。

此外,新一代的 NVIDIA ConnectX-8 SuperNIC 已加入 NVIDIA Spectrum-X 乙太網路平台,支援 OCP 的交換機抽象層介面(SAI)及 Software for Open Networking in the Cloud(SONiC)標準。這使得客戶能利用 Spectrum-X 的動態路由和基於遙測的壅塞控制技術,提升橫向擴充式 AI 基礎設施的乙太網路效能。

ConnectX-8 SuperNIC 支援高達 800Gb/s 的加速網路,並針對大規模 AI 工作負載進行最佳化,將於明年推出,協助組織建立高度靈活的網路。

隨著全球轉向加速運算與 AI 運算技術,資料中心基礎設施變得日漸複雜。NVIDIA 正與 40 多家全球電子產品製造商合作,這些製造商提供關鍵元件以簡化 AI 工廠的開發流程。

多家合作夥伴也在 Blackwell 平台上進行創新,包括 Meta。Meta 計畫將搭載 GB200 NVL72 的 Catalina AI 機架架構貢獻給 OCP,為電腦製造商提供靈活選擇,建立高運算密度系統,以滿足資料中心日益增長的效能與能源效率需求。

Meta 工程部門副總裁 Yee Jiun Song 表示,「NVIDIA 是開放運算標準的主要貢獻者,過去兩年來其高效能運算平台一直是我們 Grand Teton 伺服器的基礎。我們不斷努力滿足大規模 AI 的運算需求,NVIDIA 在機架設計與模組化架構的最新貢獻將加速整個產業的 AI 基礎設施開發。」


點擊閱讀下一則新聞 點擊閱讀下一則新聞
安永攜手UiPath推動財會部門AI自動化轉型 助企業提升效能