面對輝達股價劇烈波動,市場上傳出一份黃仁勳的千字內部信,指稱任何新興力量都是對行業生命力的最佳印證,今日股價波動不是漫長征程中的一陣山風,讓今日的波動成為一份禮物等語句激勵員工。然而,輝達出面闢謠,這份內容是假消息。

這波AI浪潮從2022年底OpenAI推出基於大型語言模型(LLM)打造的聊天機器人ChatGPT所引爆,徹底改變了近年科技產業的生態,雲端服務商(CSP)更是為了擴大AI基礎建設,每季投入大量資源購買基於輝達、AMD等提供的AI晶片,所打造規模龐大的資料中心。不過,OpenAI也坦承,ChatGPT仍有出現AI幻覺(AI hallucination)的問題。

輝達執行長黃仁勳去年在一場採訪表示,針對AI算力的需求每年將提升4倍,黃仁勳回應,實際上應該是更多,輝達的貢獻就是將邊際成本降低100萬倍,但儘管AI提供的答案已經是最好的,但是用戶仍須判斷是否有誤,黃仁勳坦言產業還需要好幾年時間才能克服。

黃仁勳也在今年CES主題演講解釋,AI發展模式有三個重要領域,這圍繞著「縮放定律」(scaling law),第一是前期訓練(pre-training),需要搜集更多的資料,擁有的資料愈多,模型愈大,運算能力就愈強;第二,則是後期訓練(post-training),將利用人類、AI的回饋強化學習,包括合成資料生成、多路徑學習,AI就能高機率回應出合適的答案;第三,則是測試時間縮放(Test Time Scaling),根據不同的運算需求,靈活調整資源分配,確保在需要高精度時能投入更多算力,在簡單任務時降低運算成本,提升效率。

DeepSeek 最新模型 DeepSeek R1 讓市場驚艷,但外界所稱的不到 600 萬美元成本,實際上指的是去年 12 月發表的 DeepSeek-V3,且僅涵蓋訓練成本,並未計入架構、演算法、資料蒐集與研究等費用。隨著時間推進,建立同一代 AI 模型的成本雖呈指數級下降,但訓練成本與算力需求仍會隨每一代持續增加。根據縮放定律,開發更強大的 AI 模型需仰賴更高效的運算資源,輝達 AI 晶片正是關鍵所在,這也印證輝達的所稱,需要繼續發展AI,需要更多的AI晶片提供算力才能推動。

DeepSeek震撼市場的另外一個特點在於,此為開源大型語言模型(LLM),性能表現超越了閉源模型的GPT-4o與o1,表現更是追上了Meta的開源大型語言模型Llama 4,總參數量達6710億,每次處理token將啟用370億參數,DeepSeek自主研發的MLA與MOE架構,為前身DeepSeek-V2的一部分,大幅降低了訓練成本,但根據圖靈獎得主、Meta首席AI科學家楊立昆指出,DeepSeek的成功並非代表中國AI發展的突破,也並非推出Transformer架構這種驚人成就,而是對於開源模型的價值再度被彰顯,代表在這場AI浪潮中,只要會使用AI的企業或是個人,能提供一條更有價值的解決方案,都能從中受惠。

除了輝達,AMD 也積極爭取 AI GPU 市場,並強調 AI 推論應用的關鍵性。AMD 先前宣布,將 DeepSeek-V3 整合至 Instinct MI300X GPU,該模型專為 AI 推論設計,能優化計算效率並降低成本,提升 AMD 在 AI 領域的競爭力。DeepSeek-V3 由 SGLang 軟體架構支援,可無縫整合文字與視覺數據處理,為 AI 生產力樹立新標準,賦能開發者打造高效 AI 應用。AMD 進一步說明,DeepSeek-V3 的開發仰賴 ROCm 軟體與 Instinct GPU 加速器,其中 ROCm 平台支援 FP8(8 位浮點數),可有效降低資料傳輸延遲並提升推論效能。透過與 DeepSeek 團隊的緊密合作,AMD 期望推動 AI 創新,挑戰輝達在 AI 晶片市場的主導地位。然而,市場反應不一,主要因 AI GPU 仍有高達 90% 由輝達供應,AMD 雖積極布局,但要縮小與輝達的差距,仍需時間與更多市場驗證。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
2025年ETF怎麼選?法人:權值股貢獻夠力 市值型ETF為首選