據彭博社援引知情人士消息,3月24日,螞蟻集團成功利用阿里巴巴、華為等國產芯片,結合混合專家(MoE)架構,訓練出參數規模達2900億的大模型“Ling-Plus”。該模型性能與使用英偉達H800芯片訓練的同類模型相當,同時訓練成本降低了20%。這是繼科大訊飛“星火大模型”之后,國產算力生態迎來的又一標志性成果。
針對外媒報道,螞蟻集團向觀察者網回應稱,其持續優化不同芯片的性能,以降低AI應用成本,并取得了一定進展。螞蟻方面表示,這些成果將逐步通過開源分享。根據螞蟻集團Ling團隊發布的論文,其自研的Ling系列模型在國產芯片(如壁仞科技、天數智芯、寒武紀等)支持下,訓練1萬億Token的成本從635萬元降至508萬元,降幅達20%,性能仍可媲美阿里通義Qwen2.5-72B和DeepSeek-V2.5。
螞蟻集團的這一技術突破,不僅在于自研性能領先的大模型,還提出了多項創新方法,以提升資源受限環境下AI開發的效率與可及性。實驗表明,其3000億參數的MoE大模型可在使用國產GPU的低性能設備上完成高效訓練,性能與完全使用英偉達芯片的稠密模型及MoE模型相當。螞蟻自研的百靈大模型于2023年通過備案,重點應用于生活服務、金融服務、醫療健康等領域。
與此同時,科大訊飛與華為聯合團隊宣布,成功在昇騰國產算力集群上實現MoE模型的大規模跨節點專家并行推理。這是業界首個完全基于國產算力的解決方案。通過算子融合、混合并行策略和通信計算并行優化等創新,科大訊飛在國產算力上實現了顯著性能提升:單卡靜態內存占用縮減至雙機部署的1/4,效率提升75%,專家計算密度增加4倍,推理吞吐提升3.2倍,端到端時延降低50%。
科大訊飛表示,這一突破性方案將應用于訊飛星火深度推理模型的訓練加速,預期訓練時推理效率將提升200%。同時,基于該方案的推理引擎也實現了國產算力上DeepSeek-V3和R1的高效推理。
本文鏈接:http://www.www897cc.com/showinfo-27-138593-0.html螞蟻集團與科大訊飛推動國產算力生態發展
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 江波龍擬赴港上市!凈利暴漲160%!
下一篇: 飛凱材料子公司擬購JNC蘇州公司及相關專利
標簽: