在人工智能領域,大語言模型的訓練與推理成本一直是限制技術普及的關鍵因素之一。近日,北京大學人工智能研究院助理教授張牧涵團隊在鯤鵬昇騰科教創新卓越中心(簡稱“卓越中心”)提供的算力支持下,成功研發出一套高效的大模型訓練推理架構,實現了百萬 tokens 輸入成本低至 1 元,為產業提供了高效能、低成本的解決方案。
此研究成果包括三項關鍵技術創新。首先,目前廣泛使用的相對位置編碼存在較大的稀疏性,團隊通過將每個注意力頭中的位置信息和非位置信息分離,對位置編碼進行了低秩壓縮,僅使用 3% 的位置信息,即可維持原有表達能力。該方法通過優化昇騰硬件的 flash-attention 算子,使得注意力頭的參數得到更高效利用。
第二,非位置編碼信息在原始模型中通常處于被抑制狀態。通過將位置編碼與非位置編碼分離,非位置編碼得到了較大的壓縮空間。團隊采用了聯合 KV 的低秩壓縮方法,僅保留 12.5% 的 KV Cache 即可維持原始模型的能力。這一方法能夠有效利用昇騰硬件高效的計算能力,減輕訪存壓力,顯著提升推理效率。
最后,基于昇騰硬件在出色的并行計算能力,團隊實現的 Recurrent Decoding(RD)技術通過替換 LM-head 提升了訓練數據利用率并加速了推理。在訓練階段,RD 通過將解碼出的多個 tokens 與 target tokens 進行對比,實現了訓練數據的高效利用;在推理階段,結合投機推理顯著提高了 tokens 的采樣通過率,進而提升了推理速度。
這一成果得到了學術界的廣泛關注,不僅為科研提供了可復用的高效架構,也為 AI 大模型在企業中的應用大幅降低了成本。自去年 6 月成立以來,北京大學與華為在產業前沿課題的聯合攻關持續推進,本次成果驗證了昇騰算力平臺支撐尖端科研的技術實力。卓越中心將繼續深入開展大模型關鍵技術創新,為構建中國技術生態提供堅實支撐。
本文鏈接:http://www.www897cc.com/showinfo-26-173985-0.html北大張牧涵團隊依托昇騰突破推理效率瓶頸 大模型推理百萬 tokens 成本僅 1 元
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com