2 月 3 日消息,Gitee AI 昨日宣布上線 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B 四個較小尺寸的 DeepSeek 模型。更值得關(guān)注的是,本次上線的四個模型均部署在國產(chǎn)沐曦曦云 GPU 上。
與全尺寸 DeepSeek 模型相比,較小尺寸的 DeepSeek 蒸餾版本模型更適合企業(yè)內(nèi)部實施部署,可以降低落地成本。
同時,這次Deepseek R1 模型 + 沐曦曦云 GPU + Gitee AI 平臺,更是實現(xiàn)了從芯片到平臺,從算力到模型全國產(chǎn)研發(fā)。
注:DeepSeek R1 是一款大型混合專家(MoE)模型,擁有 6710 億個參數(shù),支持 128000 個 Token 的大輸入上下文長度。
本次部署在沐曦曦云 GPU 上的是四個 DeepSeek R1 蒸餾模型,號稱以更小參數(shù)量的資源占用,實現(xiàn)了性能與大參數(shù)模型“旗鼓相當”。
目前 Gitee AI 上的 DeepSeek-R1-Distill 系列模型現(xiàn)已面向全體開發(fā)者免費使用。
本文鏈接:http://www.www897cc.com/showinfo-45-10448-0.htmlGitee AI 聯(lián)合沐曦首發(fā)全套 DeepSeek R1 千問蒸餾模型,全免費體驗
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com