Meta近日正式推出新一代人工智慧模型「Llama 4」系列,該系列包含多款針對不同應用場景設計的模型,強調效能與多模態處理能力的平衡發展。這些新模型採用「專家混合架構」(Mixture of Experts, MoE),能夠處理文本、圖片與影片等多種資料格式,並已整合至WhatsApp、Messenger、Instagram及網頁版的Meta AI助理,展現Meta在生成式AI領域的戰略布局。
此次Meta共發布三款模型:適合輕量級應用的Llama 4 Scout、進階版Llama 4 Maverick,以及尚在預覽階段的超大型模型Llama 4 Behemoth。其中,Llama 4 Scout可在單顆Nvidia H100 GPU上運行,支援長達1,000萬tokens的上下文視窗,並在多項基準測試中超越Google的Gemma 3及Mistral 3.1,成為中小型應用的理想選擇。而Llama 4 Maverick則專為高階推理與編碼任務設計,性能可與GPT-4o和DeepSeek-V3相媲美,且在活躍參數更少的情況下仍維持高效能表現。
最引人注目的是Meta預告中的Llama 4 Behemoth,總參數量高達2兆,活躍參數達2880億,在STEM領域基準測試中甚至超越GPT-4.5與Claude 3.7 Sonnet,為超大規模應用提供新可能。然而,儘管Llama 4被標榜為「開源模型」,Meta的授權條款仍限制擁有7億以上用戶的商業機構使用,這樣的限制也讓部分開源社群對Meta的「開源」定義產生質疑。
關於Llama 4的更多未來發展計劃,預計將在4月29日的LlamaCon大會上揭曉。