輝達表示,Meta 的工程師們使用了一個搭載 24,576 個 NVIDIA H100 Tensor 核心 GPU 的電腦叢集,與 NVIDIA Quantum-2 InfiniBand 網路連接,對 Llama 3 進行了訓練。在 NVIDIA 的支援下,Meta 為其旗艦大型語言模型調整了網路、軟體和模型架構。為了進一步推進生成式人工智慧(AI)發展,Meta 最近說明了將其基礎設施擴展到 35 萬個 H100 GPU 的計劃。

輝達指出,在 NVIDIA GPU 上加速的 Llama 3 版本,今天已經可以在雲端、資料中心、邊緣和個人電腦上使用。開發者可以從瀏覽器上嘗試在 ai.nvidia.com上使用 Llama 3。它被打包為 NVIDIA NIM微服務,具有標準的應用程式介面,可以在任何地方部署。企業可以使用 NVIDIA NeMo根據其資料微調 Llama 3,NVIDIA NeMo 是一個適用於大型語言模型的開源框架,並為安全、受到支援的 NVIDIA AI Enterprise平台的一部分。客製化模型可以使用 NVIDIA TensorRT-LLM進行推論最佳化,並使用 NVIDIA Triton 推論伺服器進行部署。

Llama 3 也可以在 NVIDIA Jetson Orin上運行,用於機器人和邊緣運算設備,創建像 Jetson AI 實驗室中互動式代理人一樣的應用。此外,適用於工作站和個人電腦的NVIDIA RTX和 GeForce RTX GPU,可以加速 Llama 3 的推論速度。這些系統為開發者提供了全球超過一億個 NVIDIA 加速系統的目標。

輝達說明,為聊天機器人部署大型語言模型時,最佳狀態是在低延遲、良好的讀取速度和最佳的 GPU 使用之間取得平衡,以降低成本。這樣的服務需要以大約每秒 10 個詞元、使用者閱讀速度兩倍左右的速度來傳送詞元,這些詞元大致相當於大型語言模型的詞彙。

應用這些指標,在使用具有 700 億個參數的 Llama 3 版本的初始測試中,單一 NVIDIA H200 Tensor 核心 GPU 每秒可產生約 3,000 個詞元,足以同時為約 300 個使用者提供服務。這意味著一台配備 8 個 H200 GPU 的 NVIDIA HGX 伺服器每秒可提供 24,000 個詞元,並透過同時支援 2,400 多個使用者來進一步最佳化成本。

針對邊緣設備,具備 80 億個參數的 Llama 3 版本在 Jetson AGX Orin 上每秒最多可生成40 個詞元,在 Jetson Orin Nano 上則每秒可生成15個詞元。

輝達強調,作為積極的開源貢獻者,NVIDIA 致力於最佳化社群軟體,幫助使用者應對最棘手的挑戰。開源模型還可以提高AI的透明度,讓使用者廣泛分享AI安全性和彈性方面的工作。詳細了解 NVIDIA 的 AI 推論平台,包括 NIM、TensorRT-LLM 和 Triton 如何使用像是低階適應(low-rank adaptation)等最先進的技術來加速最新的大型語言模型。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
證交所、櫃買中心攜手安永舉行座談會 邀創新與成長潛力企業交流