Supermicro總裁暨執行長梁見後指出:「Supermicro致力為AI與HPC應用提供領先業界的高效能系統,我們的Data Center Building Block Solutions(DCBBS)能快速實現一站式資料中心部署,並導入最新技術以應對各種嚴苛挑戰。此次整合AMD Instinct MI350系列GPU,不僅擴展我們既有AI伺服器產品線,也讓客戶擁有更多元的選擇和更高效的解決方案。」
新一代Supermicro H14平台專為AI、HPC、雲端與企業級工作負載設計,具備高度彈性與效能。系統建構於Supermicro驗證過的模組化架構,可搭配液冷或氣冷散熱機構。搭載的AMD Instinct MI350 GPU擁有288GB HBM3e高頻寬記憶體,相較前一代記憶體容量提升至1.5倍,頻寬達8TB/s,同時在FP16/FP8 AI運算效能方面,較上一代MI325X提升達1.8倍,助力客戶更迅速處理複雜的AI模型推論與訓練工作。
Supermicro同步推出支援OCP加速器模組(OAM)標準的多款GPU機型,包含氣冷8-GPU與液冷4-GPU版本。新4U液冷機型採用升級的直接液冷(DLC)架構,可大幅降低機架耗電量達40%,並具備冷卻GPU、CPU與其他伺服器元件的能力,滿足高密度部署場景對冷卻與能源效率的高度需求。8U氣冷系統則為無法採用液冷的資料中心提供靈活選項。
AMD董事長暨執行長蘇姿丰表示:「AMD Instinct MI350系列提供每美元最高40%的Token運算效能提升,並維持與產業標準一致的外型規格,利於系統整合商快速導入。我們與Supermicro的合作,讓客戶可部署基於完整AMD技術的高效能AI平台,無論是氣冷或液冷架構,皆能因應不同規模與需求的應用場景。」
此次推出的AMD Instinct MI350系列GPU,採用第四代CDNA架構,專為AI訓練、推論及科學模擬等高度運算密集型工作負載優化,支援FP6與FP4等新型AI資料類型,強化模型運算精度與效能。對於追求大規模部署與能效優化的雲端服務供應商(CSP)、Neo-Cloud新興雲平台與企業級AI應用用戶,該平台提供高度的整合性與靈活性。
根據ABI Research產業分析師Paul Schell觀察,隨著AI模型持續向更大規模與更高複雜度邁進,資料中心需要更快速、更高效且更可擴展的硬體架構。Supermicro的H14平台正是回應這一趨勢的解決方案,為新一波AI技術的推進提供穩固基礎。
