輝達利用新一代的Blackwell架構,推出旗艦級AI GPU B200,擁有最高2,080億電晶體,採用台積電客製化4奈米4NP製程製造,可藉由減少光罩層數來降低製程複雜度並改善晶片的生產週期,台積電透過Chiplet技術,將8顆HBM3e高頻寬記憶體,同步整合成更強大的AI晶片。

陸行之在臉書發文,統整了GTC大會幾項技術關鍵,全文如下:

1.Blackwell 100有2080億電晶體,比Hopper 100的800億電晶體多1280億電晶體;

2.B100跟H100相同,都是用台積電4nm,但是把兩個晶片用封裝結合,不是用微縮來加倍運算速度;

3.GB200 Superchip 把2顆B100及72顆ARM Neoverse V2 CPU cores一起包起來,如果賣的好,Intel/AMD 的AI server CPU就不用玩了;

4.不懂為何兩顆B100(192+192=384HBM3e)+一顆 Grace CPU 的GB200 Superchip怎麼 HBM3e突然暴增到864GB?理論上CPU應該配LPDDR,但Nvidia說兩組GB200有1.7TB HBM3e,是不是做ppt的小朋友搞錯了哈;

5.要建立32000顆 B100 GPU 的AI datacenter,能提供645 exaFLOPS 的AI performance,大概要花12億美元在B100 GPU上,3億美元系統,3-5億ARM CPU,還要近890顆的NVlink switch晶片,也是用台積電4nm來製造,感覺20億美元以上跑不掉。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
聯準會12月恐怕暫緩降息步調 PIMCO:川普關稅政策將影響通膨