快科技3月10日消息,據(jù)報道,字節(jié)跳動旗下豆包大模型團隊近日宣布了一項關(guān)于混合專家(MoE)架構(gòu)的重要技術(shù)突破,并決定將這一成果開源,與全球AI社區(qū)共享。
這一技術(shù)通過一系列創(chuàng)新方法,成功將大模型的訓(xùn)練效率提升了約1.7倍,同時顯著降低了訓(xùn)練成本,降幅高達40%。這一突破為大規(guī)模模型訓(xùn)練提供了更高效、更經(jīng)濟的解決方案。
該技術(shù)已在字節(jié)跳動的萬卡集群訓(xùn)練中得到實際應(yīng)用。內(nèi)部數(shù)據(jù)顯示,自采用該技術(shù)以來,已累計節(jié)省了數(shù)百萬GPU小時的訓(xùn)練算力。這不僅驗證了技術(shù)的實際效果,也進一步凸顯了字節(jié)跳動在AI技術(shù)研發(fā)領(lǐng)域的領(lǐng)先地位。
對于此次開源的決定,豆包大模型團隊希望通過分享這一技術(shù),推動整個AI社區(qū)在模型訓(xùn)練效率方面的共同進步。開源不僅有助于加速行業(yè)技術(shù)發(fā)展,還能為更多研究者和開發(fā)者提供寶貴的資源,進一步推動人工智能技術(shù)的創(chuàng)新與應(yīng)用。
開源地址:https://github.com/bytedance/flux
本文鏈接:http://www.www897cc.com/showinfo-17-135905-0.html字節(jié)跳動豆包團隊開源MoE架構(gòu)優(yōu)化技術(shù):可將大模型訓(xùn)練效率提升1.7倍
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com