H200 NVL為資料中心提供高效能、低功耗的解決方案,滿足各規模組織在 AI 與 HPC 工作負載上的多元需求。NVIDIA 不僅推動 AI 與 HPC 領域的技術創新,也為全球多產業創造更多價值,助力企業與研究機構應對未來挑戰。

與前代 H100 NVL 相比,H200 NVL 擁有顯著性能升級,包括記憶體容量提升 1.5 倍、頻寬增加 1.2 倍、推論效能提升 1.7 倍,能於數小時內完成大型語言模型(LLM)的微調。在 HPC 工作負載下,效能比 H100 NVL 提升 1.3 倍,相較於 NVIDIA Ampere 架構更高 2.5 倍。此外,該 GPU 配備最新的NVIDIA NVLink 技術,其 GPU 對 GPU 的通訊速度比第五代 PCIe 快七倍,為 HPC 和 LLM 推論提供無與倫比的支持。

H200 NVL 針對氣冷式企業機架設計,提供靈活的節點部署方式,企業可使用現有設備進行配置,無需大規模改造。根據近期調查,約 70% 的企業機架功率在 20kW 以下並採用氣冷技術,H200 NVL 的彈性設計正好滿足這類需求。不論是單顆或多顆 GPU 的應用,該產品助力資料中心在有限空間內獲得更高運算效能,同時降低功耗以提升能源使用效率。

H200 NVL 在 AI 與 HPC 領域的應用涵蓋多個產業,包括消費服務中的視覺 AI 代理與聊天機器人、金融業的交易演算法、醫療影像分析、製造業的模式識別,以及科學研究中的基因組學與氣候建模等。例如,Dropbox 基礎設施副總裁 Ali Zafar 表示:「我們看好 H200 NVL 在提升資料處理效率方面的潛力。」而新墨西哥大學先進研究運算中心主任 Patrick Bridges 則強調,H200 NVL 將顯著加速其資料科學與模擬研究。

多家領先廠商將支援 H200 NVL,其中包括戴爾、慧與科技(HPE)、聯想、美超微等國際企業,及華碩、技嘉、緯創、和碩、微星等台灣公司。部分系統採用 NVIDIA MGX 模組化架構,幫助製造商以更具成本效益的方式快速部署資料中心基礎設施。搭載 H200 NVL 的平台預計於 12 月起上市,NVIDIA 也同步推出企業參考架構,為合作夥伴與客戶提供硬體、軟體及網路配置的完整指引。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
AI商機遍地開花!科技巨頭獲利優於預期 繼續砸錢迎向AI強浪