Oracle表示,客戶可以經由 OCI Supercluster 選擇使用多種 NVIDIA GPU,並且將這些 GPU 部署在任何地方,包括內部部署、公有雲和主權雲端。建置在 Blackwell 架構上的OCI Supercluster 系統將於明年上半年推出,規模可擴充到使用 131,072 顆 Blackwell 架構 GPU,搭配適用於 RoCEv2 的  NVIDIA ConnectX-7 NIC 或 NVIDIA Quantum-2 InfiniBand 網路,可在雲端環境提供驚人的 2.4 zettaflops 峰值 AI 運算能力。

Oracle率先曝光NVIDIA GB200 NVL72 液冷裸機執行個體,以用於支援執行生成式 AI 應用。這些執行個體能夠利用 Quantum-2 InfiniBand 進行大規模訓練,並且在更大規模的 72 個 GPU NVIDIA NVLink 網域內使用有著上兆個參數的模型即時進行推論作業,當成一個大型 GPU。

OCI 今年將提供 NVIDIA HGX H200,透過 NVLink 與 NVLink Switch 在單一裸機執行個體裡連接 8 個 NVIDIA H200 Tensor 核心 GPU,並且在 RoCEv2 叢集網路上透過 NVIDIA ConnectX-7 NIC 擴充至 65,536 個 H200 GPU。想要大規模提供即時推論與加速訓練工作負載的客戶,可以訂購這款執行個體。OCI 還宣布全面推出適用於中階 AI 工作負載、NVIDIA Omniverse 與可視化的 NVIDIA L40S GPU 加速執行個體實例。

即使是裝置未連線又或是位於遠端地點,Oracle 的邊緣產品同樣能夠針對單節點到多機架解決方案,在邊緣提供由 NVIDIA GPU 加速、具擴充能力的 AI。舉例來說,使用 Oracle Roving Edge Device v2 的小規模部署作業,如今最多可支援三個 NVIDIA L4 Tensor 核心 GPU。

企業使用 NVIDIA 支援的 OCI Supercluster 來推動 AI 創新。像是基礎模型新創公司 Reka 利用叢集開發先進的多模態 AI 模型,以開發企業代理(agent)。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
鋼市疲弱觀望濃 中鋼大降10月及Q4盤價每公噸500~1500元