NVIDIA 首次向 MLCommons 提交的 Blackwell 訓練結果,展現了其在生成式 AI 訓練效能上的重大進展。Blackwell 架構引入了新一代核心,專門優化 Tensor Core 的使用效率,這些核心針對深度學習常見的數學運算進行優化,使矩陣乘法等演算法的效能提升顯著。此外,Blackwell 的每 GPU 運算輸出能力顯著提升,加上更大、頻寬更高的 HBM3e 記憶體,能以更少的 GPU 完成 GPT-3 175B 等大型語言模型的訓練,效能提升達 2.2 倍。

NVIDIA 不斷進行軟體開發,優化訓練框架和模型效能。在這一輪 MLPerf 測試中,NVIDIA 的 Hopper 平台每 GPU 的 GPT-3 175B 訓練效能提升了 1.3 倍。同時,NVIDIA 也展示了大規模基準測試成果,使用 11,616 個 Hopper GPU 進行測試,通過 NVLink 和 NVSwitch 提供高頻寬的 GPU 通訊,結合 Quantum-2 InfiniBand 網路,大幅提升訓練效能。這些進步不僅反映出硬體的優化,也展現了 NVIDIA 在軟體更新上的努力。

NVIDIA 在此次 MLPerf 測試中,與華碩、Azure、思科、戴爾科技等合作夥伴攜手,展示了多家系統製造商和雲端服務供應商的共同成果。NVIDIA 作為 MLCommons 的創始成員,強調標準化基準測試的重要性,通過同業審查和數據比較,為業界提供了明確的效能指標,幫助企業做出投資決策。這一系列成就,顯示出 NVIDIA 與合作夥伴在 AI 訓練效能提升上的緊密合作,並進一步奠定了其在高效能 AI 運算領域的領導地位。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
解讀Fed「鷹式降息」用意!法人:美國基本面良好 股債後市仍可期