美光與 NVIDIA 合作開發的 SOCAMM 是一款模組化 LPDDR5X 記憶體解決方案,專為支援 NVIDIA GB300 Grace Blackwell Ultra 超級晶片而設計。美光 HBM3E 12H 36GB 也針對 NVIDIA HGXB300 NVL16 和 GB300 NVL72 平台打造;而 HBM3E 8H 24GB 則應用於 NVIDIA HGX B200 和 GB200 NVL72 平台。美光 HBM3E 產品於 NVIDIA Hopper 和 NVIDIA Blackwell 系統中的全面性部署,突顯美光加速 AI 工作負載的關鍵角色。
在 GTC 2025 大會上,美光展示完整的 AI 記憶體與儲存裝置產品組合,全面支援從資料中心到邊緣裝置的 AI 應用,突顯美光與生態系夥伴之間的深度合作關係。美光的多元產品布局包括 HBM3E 8H 24GB 和 HBM3E 12H 36GB、LPDDR5X SOCAMM、GDDR7 和高容量 DDR5 RDIMM 和 MRDIMM。此外,美光也供應業界領先的資料中心 SSD 以及汽車和工業用產品組合,例如 UFS4.1、NVMe® SSD 和 LPDDR5X,皆能契合邊緣運算應用的需求。
美光資深副總裁暨運算與網路事業部總經理 Raj Narasimhan 表示:「AI 正持續推動運算領域的典範轉移,其中記憶體正是這項變革的核心。美光為 NVIDIA Grace Blackwell 平台 AI 訓練和推論應用帶來顯著的效能提升和節能效益,而 HBM 和低功耗記憶體解決方案則有助於提升 GPU 的運算能力,突破現有極限。」

美光 SOCAMM 解決方案目前已進入量產階段,這款模組化 SOCAMM 解決方案能實現更快的資料處理速度、卓越效能、無與倫比的電源效率,以及更出色的維修便利性,能有效因應日益嚴苛的 AI 工作負載。
美光 SOCAMM 是全球速度最快、體積最小、功耗最低、容量最高的模組化記憶體解決方案,能夠滿足 AI 伺服器和資料密集型應用需求。這款全新 SOCAMM 解決方案能使資料中心在保持相同運算能力的同時,享有更充裕的頻寬、更低的功耗和更強的擴充能力,進而提升基礎架構的靈活性。
美光延續在 AI 領域的競爭優勢,其 HBM3E 12H 36GB 在相同立方體外形規格下,提供比 HBM3E 8H 24GB 高出 50% 的容量。 此外,相較於競爭對手的 HBM3E 8H 24GB 產品,美光 HBM3E12H 36GB 的功耗降低 20%,同時記憶體容量也高出 50%。
美光將持續追求卓越的功耗和效能表現,計劃將推出 HBM4 以保持技術發展動能,進一步鞏固其在 AI 記憶體解決方案供應商中的領導地位。美光 HBM4 解決方案的效能預計將比 HBM3E 提升超過 50%。
美光也擁有一系列備受肯定的儲存產品組合,專為滿足日益增長的 AI 工作負載而設計。若要實現如光速般快速提升儲存技術的效能和能源效率,必須與生態系夥伴緊密合作,確保互通性和無縫銜接的客戶體驗。美光推出多款最佳化 SSD,可完美因應各種 AI 工作負載,例如:推論、訓練、資料準備、分析和資料湖。
隨著人工智慧和生成式 AI 持續擴展並整合至邊緣的終端裝置,美光正與主要生態系夥伴緊密合作,為汽車、工業和消費性領域提供創新的 AI 解決方案。除了對高效能的需求外,這些應用更仰賴更高品質、更高可靠性以及更長的壽命以滿足其使用需求。
