9 月 22 日消息,Meta 現(xiàn)已公布了 MobileLLM-R1 系列小語言模型,分別提供 1.4 億、3.6 億和 9.5 億不同參數(shù)版本,強(qiáng)調(diào)能夠在本地移動(dòng)平臺(tái)等輕量級(jí)設(shè)備上運(yùn)行。

Meta 表示,MobileLLM-R1 并不是面向聊天機(jī)器人的通用模型,而是經(jīng)過監(jiān)督式微調(diào)(SFT)專門訓(xùn)練,主要用于解決數(shù)學(xué)、編程(如 Python、C++)和科學(xué)類問題,以最大規(guī)模的 MobileLLM-R1 950M 為例,其預(yù)訓(xùn)練數(shù)據(jù)僅使用了約 2TB 高質(zhì)量 token,總訓(xùn)練數(shù)據(jù)量也不到 5TB,但表現(xiàn)依然出色。在 MATH、GSM8K、MMLU、LiveCodeBench 等多項(xiàng)基準(zhǔn)測(cè)試中,成績(jī)超過了使用 36TB token 數(shù)據(jù)訓(xùn)練的 Qwen 3-0.6B。
在對(duì)比現(xiàn)有開源小模型時(shí),MobileLLM-R1 950M 在 MATH 測(cè)試中的準(zhǔn)確率是 Olmo 1.24B 的 5 倍,也是 SmolLM 1.7B 的 2 倍。在編程任務(wù)中,其表現(xiàn)同樣優(yōu)于 Olmo 1.24B 和 SmolLM 1.7B。
目前,開發(fā)者可以通過 vLLM 推理引擎運(yùn)行 MobileLLM-R1,只需在 ModelRegistry 中登記模型架構(gòu) Llama4ForCausalLM 即可。該系列模型已以 Apache 2.0 協(xié)議開源,并發(fā)布在 Hugging Face 平臺(tái)(點(diǎn)此訪問)。
本文鏈接:http://www.www897cc.com/showinfo-45-28062-0.htmlMeta 開源 MobileLLM-R1 系列小語言 AI 模型:參數(shù)量不到 10 億、專攻數(shù)學(xué)編程科學(xué)問題
聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: DeepSeek 線上模型升級(jí)至 V3.1-Terminus 版本,改進(jìn)語言一致性及 Agent 能力