TrendForce表示,以NVIDIA Hopper系列晶片為例,第一代H100搭載的HBM容量為80GB,而2024年放量的H200則躍升到144GB。在AI晶片與單晶片容量的成長加乘之下,對產業整體的HBM的消耗量有顯著提昇,2024年預估年增率將超過200%,2025年HBM消耗量將再翻倍。

根據調查供應鏈結果,NVIDIA規劃降規版B200A給OEM客戶,將採用4顆HBM3e 12hi(12層),較其他B系列晶片搭載的數量減半。TrendForce指出,即使B200A的HBM搭載容量較小,仍不影響整體市場的HBM消耗量,因為晶片選擇多元化,有助於提高中小客戶的採購意願。

TrendForce表示,雖然SK hynix、Micron甫於2024年第二季開始量產HBM3e,但NVIDIA H200的出貨將帶動該公司在整體HBM3e市場的消耗比重,預估2024年全年可超過60%。進入2025年,受到Blackwell平台全面搭載HBM3e、產品層數增加,以及單晶片HBM容量上升帶動,NVIDIA對HBM3e市場整體的消耗量將進一步推升至85%以上。預計於2025年推出的Blackwell Ultra將採用8顆HBM3e 12hi,GB200亦有升級可能,再加上B200A的規劃,因此,預估2025年12hi產品在HBM3e當中的比重將提升至40%,且有機會上修。

隨著進入到HBM3e 12hi階段,技術難度也提升,驗證進度顯得更加重要,完成驗證的先後順序可能影響訂單的分配比重。目前HBM的三大供應商產品皆在驗證中,其中Samsung在驗證進度上領先競爭對手,積極朝提高其市占率為目標。基本上,今年產能大致底定,主要產能仍以HBM3e 8hi為主,因此,HBM3e 12hi產出增長主要仍貢獻於2025年。

市場也在近日傳出,三星HBM3e已通過NVIDIA驗證,可用於AI晶片,雖然雙方仍未針對通過驗證的HBM3e 8hi簽訂合約,但預計時程已經逼近,預計今年第四季將開始供貨。不過,三星HBM3e 12hi仍未通過驗證。對此,三星再度駁斥此消息不屬實,並強調品質測試正在進行中,跟先前說明沒有變化。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
投資人關注俄烏戰爭局勢 美國股市近乎平盤開出