Meta在官網文章指出,Llama 4 Scout為一款具備170億活躍參數、由16位專家組成的多模態模型,支援高達1,000萬token的上下文長度,適用於長文件總結、多檔案分析與大型程式碼庫推理。其iRoPE架構大幅提升長文本的泛化能力。在圖像定位與圖文對齊表現上亦領先同儕,可精準回應使用者圖像查詢,強化視覺問答體驗。整體而言,該模型在推理、編碼、多語言與影像任務上皆優於前代產品。
Llama 4 Maverick則是另一款170億活躍參數、由128位專家組成的模型,在同類型多模態模型中表現最佳,超越GPT-4o與Gemini 2.0 Flash,在多項基準測試中名列前茅。其推理與程式編寫能力與新推出的DeepSeek v3不相上下,但所使用的活躍參數不到後者的一半。Llama 4 Maverick兼具頂尖效能與極高的成本效益,其實驗性聊天版本在LMArena平台測得ELO分數為1417,展現強大綜合實力。
Llama 4系列模型皆由Meta最新的教師模型Llama 4 Behemoth蒸餾而來。Behemoth擁有高達2,880億活躍參數與16位專家,總參數近兩兆,為Meta目前最強大模型,並在數學與科學標竿測試中超越GPT-4.5、Claude Sonnet 3.7與Gemini 2.0 Pro。

此次Llama 4系列全面採用Mixture of Experts(MoE)架構,每次推論僅啟用部分參數,顯著提升訓練與運算效率。例如Llama 4 Maverick雖擁有4,000億總參數,卻能於單一NVIDIA H100主機上部署,降低運算資源需求。
在多模態能力方面,Llama 4具備原生支援文字、圖片與影片資料的處理能力。Meta採用early fusion技術,將多模態資訊整合進統一模型骨幹,並強化影像編碼器,讓模型可處理多圖輸入並執行視覺推理任務,實現更自然的人機互動。
後訓練(Post-Training)階段方面,Meta重新設計流程,採用輕量監督式微調(SFT)、線上強化學習(RL)與直接偏好最佳化(DPO)三階段策略,並針對資料難度進行動態篩選,提升模型在推理、編碼與對話等任務的整體平衡性。Llama 4 Maverick在LMArena評比中獲得1417分,顯示其卓越的通用型AI能力。
Meta重申對開源社群的承諾,強調Llama 4內建多層次防護與審查機制,包括Llama Guard、Prompt Guard與CyberSecEval等工具,協助開發者偵測不當輸入與輸出,降低模型濫用風險。針對模型偏見問題,Meta指出Llama 4相較於Llama 3.3,在爭議性議題上的拒答率已由7%降至2%以下,回應也更具平衡性,展現打造能同理多元觀點AI系統的努力。
Meta預告,將於4月29日舉辦LlamaCon,揭示Llama 4 Behemoth完整細節,並公布Llama生態系未來布局,強調Llama 4系列是推動次世代人機互動的重要基石,未來將持續拓展產品整合與開發者應用場景,打造更智慧、更具人性化的AI體驗。目前Llama 4 Scout與Maverick模型已可於llama.com與Hugging Face免費下載,亦可透過Meta AI即時體驗其功能。
