NVIDIA此次發表的兩大系統主力為 DGX GB300 與 DGX B300,均內建 NVIDIA 網路技術,協助企業快速部署 AI 超級電腦。這兩款系統運算精度達 FP4,推理速度與效能大幅提升,進一步加速 AI 模型的詞元生成及多步驟推理運算。

NVIDIA執行長黃仁勳指出,AI 應用正快速滲透各行各業,企業需要更強大且可擴充的 AI 工廠來支援日益增長的運算需求。「NVIDIA Blackwell Ultra DGX SuperPOD 是代理型與實體 AI 時代的重要基礎建設,能協助企業快速啟動大規模 AI 專案,縮短導入時間。」

DGX GB300 系統採用 NVIDIA Grace Blackwell Ultra 超級晶片,搭載 36 顆 Grace CPU 與 72 顆 Blackwell Ultra GPU。系統引進機架級液冷式設計,確保高效能運作並支援即時 AI 推理。另一方面,氣冷式的 DGX B300 系統則應用 NVIDIA B300 NVL16 架構,同樣針對生成式 AI 與代理型 AI 應用提供卓越效能。

為因應企業對先進 AI 加速基礎架構的需求,NVIDIA同步推出「NVIDIA Instant AI Factory」託管服務。該服務採用由 Blackwell Ultra 驅動的 DGX SuperPOD,首波由數據中心巨頭 Equinix 在全球 45 個市場推廣,企業可選擇液冷或氣冷式配置,享有更靈活的部署選項。

其中,搭載 DGX GB300 系統的 DGX SuperPOD 可擴充至數萬顆 Grace Blackwell Ultra 晶片,並透過 NVIDIA NVLink、Quantum-X800 InfiniBand 和 Spectrum-X 乙太網路實現高速資料傳輸。NVIDIA指出,DGX GB300 系統效能較先前 Hopper 世代提升 70 倍,並內建 38TB 高速記憶體,針對大規模代理型 AI 推理實現無與倫比的表現。

每套 DGX GB300 配備 72 顆 Grace Blackwell Ultra GPU,透過第五代 NVLink 技術整合為大容量共享記憶體空間,並搭載 72 個 ConnectX-8 SuperNIC,實現高達 800Gb/s 的傳輸速度。此外,系統整合 18 個 BlueField-3 DPU,支援 Quantum-X800 InfiniBand 或 Spectrum-X Ethernet 網路架構,大幅提升 AI 資料中心的安全性與運算效率。

針對各地資料中心,NVIDIA也推出 DGX B300 系統,主打低功耗且高效能的 AI 推理解決方案。該系統同樣配備 Blackwell Ultra GPU,推理效能為 Hopper 世代 11 倍,訓練效能提升 4 倍。每組系統搭載 2.3TB HBM3e 記憶體,整合 8 個 ConnectX-8 SuperNIC 與 2 個 BlueField-3 DPU,確保資料傳輸效率及系統彈性。

軟體方面,NVIDIA發表全新 NVIDIA Mission Control AI 資料中心協調管理軟體,專為 Blackwell 架構的 DGX 系統打造,可協助企業自動化管理 AI 基礎設施。DGX 系統也全面支援 NVIDIA AI Enterprise 平台,整合 NIM 微服務及最新開源模型 NVIDIA Llama Nemotron 系列,協助企業加速開發並部署 AI 代理應用。

黃仁勳強調,Instant AI Factory 可大幅縮短企業建置 AI 工廠的時間,從幾個月縮短至數週內完成。透過 Equinix 全球據點,企業無需自行設計與部署基礎設施,即可快速上線進行模型訓練與推理工作負載。

根據NVIDIA規劃,採用 DGX GB300 或 DGX B300 系統的 DGX SuperPOD 將於今年稍晚交付合作夥伴,Instant AI Factory 服務也預計同步啟動,為企業建置 AI 工廠提供更簡便、快速且高效的解決方案。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
新光金2024年獲利創歷史次高 特別股、普通股發放股利兩樣情