AI伺服器競爭相當激烈,但目前仍由輝達拿下超高市占率,此外,英特爾也正在努力追趕。不過,包括微軟等雲端服務商,也相當願意與AMD合作,藉此支持其AI晶片發展,試圖抗衡輝達一家獨大的局勢。

蘇姿丰在活動上,正式推出已經在今年COMPUTEX亮相的AMD Instinct MI325X加速器,基於上一代的AMD CDNA 3架構,旨在為基礎模型訓練、微調和推論等要求嚴苛的AI任務提供卓越的效能和效率。全新產品將協助AMD客戶和合作夥伴在系統、機架和資料中心層級打造高效能和最佳化的AI解決方案。

AMD Instinct MI325X加速器目前如期在2024年第4季量產出貨,預計將於2025年第1季起,由戴爾科技集團、Eviden、技嘉、HPE、聯想、美超微(Supermicro)等平台供應商廣泛提供。

AMD執行副總裁暨資料中心解決方案事業群總經理Forrest Norrod表示,AMD持續執行我們的產品藍圖,為客戶提供所需的效能和選擇,以更快的速度將AI基礎設施大規模推向市場。憑藉全新AMD Instinct加速器、EPYC處理器和AMD Pensando網路引擎、開放軟體產業體系的持續成長,以及將這一切整合至最佳化AI基礎設施中的能力,AMD展現建置和部署世界級AI解決方案的關鍵專業知識與能力。

 



AMD董事長暨執行長蘇姿丰說明CDNA架構發展藍圖。翻攝自AMD官方YT
AMD董事長暨執行長蘇姿丰說明CDNA架構發展藍圖。翻攝自AMD官方YT

AMD Instinct MI325X加速器配置256GB HBM3E記憶體容量支援6.0TB/s,提供比輝達H200高1.8倍的容量和1.3倍的頻寬,以及1.3倍的FP16理論峰值和FP8運算效能。AMD Instinct MI325X加速器的記憶體和運算能力可較H200提供高達1.3倍的Mistral 7B FP16推論效能、1.2倍的Llama 3.1 70B FP8推論效能,以及1.4倍的Mixtral 8x7B FP16推論效能。

AMD展示了搭載MI325X的AI伺服器配置,最多可搭載8個MI325X,加總提供2TB的HBM3E記憶體,記憶體傳輸速率達48TB/s,適用於超大規模資料中心及高效能運算(HPC)應用場景。AMD表示,MI325X的推出是公司AI運算技術的重大飛躍,將提供市場領先的AI處理能力,滿足日益增長的資料中心與AI應用需求。

AMD也展示明年推出、基於AMD CDNA 4架構的AMD Instinct MI350系列加速器,相較於AMD CDNA 3架構帶來35倍推論效能提升,AMD Instinct MI350系列將持續鞏固記憶體容量的領先地位,每加速器容量高達288GB HBM3E記憶體,將如期於2025年下半年推出。

MD Instinct MI325X加速器。AMD提供
MD Instinct MI325X加速器。AMD提供

AMD執行副總裁暨資料中心解決方案事業群總經理Forrest Norrod表示,AMD持續執行我們的產品藍圖,為客戶提供所需的效能和選擇,以更快的速度將AI基礎設施大規模推向市場。憑藉全新AMD Instinct加速器、EPYC處理器和AMD Pensando網路引擎、開放軟體產業體系的持續成長,以及將這一切整合至最佳化AI基礎設施中的能力,AMD展現建置和部署世界級AI解決方案的關鍵專業知識與能力。

AMD持續推進軟體功能和開放產業體系的發展,在AMD ROCm開放軟體堆疊中提供強大的全新特性和功能。在開放軟體社群中,AMD正推動PyTorch、Triton、Hugging Face等最為廣泛採用的AI框架、函式庫和模型對AMD運算引擎的支援。這項工作為AMD Instinct加速器提供了即時效能與支援,適用於Stable Diffusion 3、Meta Llama 3、3.1和3.2等熱門的生成式AI模型,以及Hugging Face超過100萬個模型。

AMD持續推進其ROCm開放軟體堆疊,帶來支援生成式AI工作負載訓練和推論的最新功能。ROCm 6.2現在對FP8資料類型、Flash Attention 3、Kernel Fusion等關鍵AI功能提供支援。憑藉這些新增功能,ROCm 6.2較ROCm 6.0提供高達2.4倍的推論效能提升註6以及1.8倍的大型語言模型(LLM)訓練效能提升註7。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
被動元件大廠國巨被證交所罰5萬元 子公司遭駭延遲發重訊