據TechCrunch報道,結合Meta官方信息,Meta近日發布了全新的人工智能模型Llama 4系列。該系列首次引入混合專家模型(MoE)架構,這種設計可以將復雜任務分解為更小的部分,從而顯著提升效率。值得一提的是,混合專家架構也是DeepSeek聲稱能夠大幅降低成本的關鍵技術。
Llama 4系列具備多模態處理能力,能夠同時應對文本、圖像、音頻和視頻任務,但目前僅支持美式英語。該系列包含三款模型,按參數規模從大到小依次為Behemoth、Maverick和Scout。
Behemoth擁有2萬億參數,目前仍在訓練中。而Maverick和Scout作為“蒸餾”版本,已經開放給開發者和普通用戶使用。Maverick的活躍參數為170億,包含128個專家模型。Meta表示,Maverick在推理和代碼生成方面表現優異,其主要競爭對手包括OpenAI的GPT-4o和Google的Gemini 2.0 Flash。此外,Meta還聲稱,Maverick在參數規模較小的情況下,性能已經超越DeepSeek v3。
Scout同樣擁有170億活躍參數,但僅包含16個專家模型。它對硬件需求較低,僅需一塊NVIDIA H100 GPU即可運行。其上下文處理能力達到1000萬詞元(token),與Google的Gemma 3、Gemini 2.0 Flash-Lite以及Mistral 3.1形成競爭關系。
Meta強調,Llama 4系列在多項測試中表現優于競爭對手。此外,該系列模型將避免回答涉及政治或社會爭議性問題的內容。
本文鏈接:http://www.www897cc.com/showinfo-27-142234-0.htmlMeta推出Llama 4系列模型,首次采用混合專家架構
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 美程科技完成超億元融資,加速電子陶瓷產業化布局
下一篇: 通嘉宏瑞完成5億元融資,發力半導體級真空泵市場
標簽: