郭明錤舉例,M1 的 AI 算力約為 11 TOPS,低於 A16 的 17 TOPS,但是M1 的DRAM 為 8GB,A16則是6GB。郭明錤推論,Apple Intelligence 裝置端AI LLM對 DRAM 的需求約為 2GB或更低。進一步分析,Apple Intelligence 採用裝置端 3B LLM(應為 FP16,M1 的 NPU/ANE 對 FP16 有很好的支持),經過壓縮後(採用 2-bit 與 4-bit 的混合配置),隨時需要預留約 0.7-1.5GB DRAM 來運作 Apple Intelligence 的裝置端 LLM。

 

熱門新聞:彙整WWDC投資人7大提問 郭明錤點出蘋果致命傷:難超乎市場預期

郭明錤從上述分析,得出幾個想法與結論:

第一,若要透過 AI 強化既有裝置端應用,至少需部署裝置端 3B LLM,並以此為基礎再根據壓縮方式決定了DRAM規格。

第二,微軟認為 AI PC 的關鍵規格是 40 TOPS 算力,但對 Apple 而言,搭配雲端 AI(Private Cloud Compute),裝置端有 11 TOPS 的算力已足夠開始提供裝置端 AI 應用。

第三,消費者若欲購買微軟的 AI PC 可能會感到困惑(還要自行計算是否達到 40 TOPS),而 Apple 則是直接告訴消費者哪些機型可以支援 Apple Intelligence。不論裝置端 AI 應用能否滿足消費者需求,Apple 在銷售上一開始就具有明顯優勢。

第四,未來 Apple Intelligence 的裝置端 AI 肯定也會升級(最有可能升級到 7B LLM),屆時需要更大 DRAM 才能運作。Apple 是否會以此作為高低階機種的產品區隔策略值得觀察。

第五,使用者體驗是否如 Apple 宣稱的那麼美好仍需觀察(Gemini 在宣傳上就曾犯過言過其實的錯誤)。

第六,Samsung S24 的 AI 功能有限,微軟的 AI PC 目前仍讓消費者感到困惑,但 Apple 成功定義了裝置端 AI (至少消費者已清楚知道Apple的AI裝置功能豐富且有哪些賣點),而這會加速競爭對手的模仿與追趕,並進而帶動裝置端 AI 相關產業的快速成長。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
市場評估拜登退選後美國大選選情 美股開高