NVIDIA Blackwell首度MLPerf Training 4.1測試 GPU運算效能再創佳績
【記者呂承哲/台北報導】使用文字、電腦程式碼、蛋白質鏈、摘要、影片甚至 3D 圖形的生成式人工智慧(AI)應用,需要資料中心規模的加速運算,才能有效率地訓練驅動這些應用的大型語言模型(LLM),在最新的 MLPerf Training 4.1 基準測試中,NVIDIA 的 Blackwell 平台表現搶眼,實現了GPU效能的顯著提升,進一步鞏固了其在 AI 訓練領域的領先地位。
【記者呂承哲/台北報導】使用文字、電腦程式碼、蛋白質鏈、摘要、影片甚至 3D 圖形的生成式人工智慧(AI)應用,需要資料中心規模的加速運算,才能有效率地訓練驅動這些應用的大型語言模型(LLM),在最新的 MLPerf Training 4.1 基準測試中,NVIDIA 的 Blackwell 平台表現搶眼,實現了GPU效能的顯著提升,進一步鞏固了其在 AI 訓練領域的領先地位。
【記者呂承哲/台北報導】開放工程聯盟(MLCommons)日前公布其業界標準AI效能基準測試套件MLPerf Inference v4.1的結果。英特爾針對第5代Intel Xeon可擴充處理器和首次參與測試並搭載效能核心(P-core)的Intel Xeon 6處理器,提交了6項MLPerf基準測試結果。相較於第5代Xeon處理器,搭載效能核心(P-core)的英特爾Xeon 6處理器在AI效能上實現約1.9倍的幾何平均效能(geomean performance)提升。
【記者呂承哲/台北報導】AMD於2日宣布首次 MLPerf 基準測試結果,在MLPerf 4.1推論中,搭載ROCm的MI300X為Llama 2 70B等大型LLM提供卓越的推論效能,與輝達(Nvidia)的H100的測試結果不分軒輊。
【記者呂承哲/台北報導】在企業爭相採用生成式人工智慧(AI)與陸續推出各項新服務的情況下,對資料中心基礎設施的需求也創下新高,GPU巨頭輝達(NVIDIA)宣布,使用Blackwell GPU 進行的首次測試結果,在 Llama 2 70B 上將推論效能提高四倍,而 NVIDIA Hopper 架構也在各產業 AI 基準測試中有著更為優異的表現。
【記者呂承哲/台北報導】輝達(NVIDIA)宣布,與去年提交創新紀錄的數據相比,NVIDIA 在基於 GPT-3 175B 的大型語言模型(LLM)基準測試中的表現,提升了三倍以上。 NVIDIA 使用配備11,616 個NVIDIA H100 Tensor Core GPU 並與NVIDIA Quantum-2 InfiniBand 網路連接的人工智慧(AI)超級電腦,透過更大規模(比一年前提交的3,584 個H100 GPU 增加三倍多)和廣泛的全端工程實現了這項非凡壯舉。