黃仁勳指出,過去一年 AI 技術的關鍵變化在於「推理鏈」(Chain of Reasoning),AI 不再只是單次輸出答案,而是先思考、查證事實,再生成結果,這讓運算需求呈指數級擴張。他強調,AI 現在有三條縮放定律:預訓練(pre-training)、後訓練(post-training)、推論(inference),「過去推論只是直接回答,現在 AI 在回答前會思考、做研究、再生成答案,推論的運算量可比以往高出百萬至十億倍。」

相關新聞:看懂AI發展3大定律!從砸大錢到蒸餾學習 要變更強大仍得做這件事

至於外界關注的 NVIDIA 與 OpenAI 合作,黃仁勳透露,OpenAI 首次自建 AI 基礎設施,脫離完全依賴 Microsoft Azure,由 NVIDIA 提供晶片、軟體、系統及整廠級支援,「這是我們直接與 OpenAI 在晶片、軟體、系統和 AI 工廠層級的合作,幫助他們成為完全自營的超級規模公司」,黃仁勳也坦言,後悔沒有及早投資OpenAI,「應該把所有的錢都給他們」,主要是當時NVIDIA還沒有到如今的規模,可以有多餘錢的挹注在NVIDIA身上。

黃仁勳強調,若建置總規模達10 吉瓦(10 GW)的資料中心全數採用 NVIDIA 解決方案,包含晶片、土地與實體設施,成本最高可能達 4000 億美元。他形容,OpenAI 正仿效馬斯克(Elon Musk)旗下的xAI與特斯拉的資料中心商業模式,未來即使以自用為主,也可將剩餘算力外售。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
AI工廠每年投資達5兆美元!黃仁勳不怕輝達成長放緩 只要「更多能源」