6 月 3 日消息,科技媒體 marktechpost 昨日(6 月 2 日)發(fā)布博文,報道稱英偉達聯(lián)合麻省理工學院(MIT)、香港大學,合作推出 Fast-dLLM 框架,大幅提升擴散模型(Diffusion-based LLMs)的推理速度。
擴散模型被認為是傳統(tǒng)自回歸模型(Autoregressive Models)的有力競爭者,采用雙向注意力機制(Bidirectional Attention Mechanisms),理論上能通過同步生成多個詞元(Multi-token Generation)加速解碼過程。
不過在實際應用中,擴散模型的推理速度往往無法媲美自回歸模型,每次生成步驟都需要重復計算全部注意力狀態(tài),導致計算成本高昂。此外,多詞元同步解碼時,詞元間的依賴關系易被破壞,生成質量下降,讓其難以滿足實際需求。
援引博文介紹,英偉達組建的聯(lián)合團隊為解決上述瓶頸,研發(fā)了 Fast-dLLM 框架。該框架引入兩大創(chuàng)新:塊狀近似 KV 緩存機制和置信度感知并行解碼策略。
KV 緩存通過將序列劃分為塊(Blocks),預計算并存儲其他塊的激活值(KV Activations),在后續(xù)解碼中重復利用,顯著減少計算冗余。其 DualCache 版本進一步緩存前后綴詞元(Prefix and Suffix Tokens),利用相鄰推理步驟的高相似性提升效率。
而置信度解碼則根據(jù)設定的閾值(Confidence Threshold),選擇性解碼高置信度的詞元,避免同步采樣帶來的依賴沖突,確保生成質量。
Fast-dLLM 在多項基準測試中展現(xiàn)了驚人表現(xiàn)。在 GSM8K 數(shù)據(jù)集上,生成長度為 1024 詞元時,其 8-shot 配置下實現(xiàn)了 27.6 倍加速,準確率達 76.0%;在 MATH 基準測試中,加速倍數(shù)為 6.5 倍,準確率約為 39.3%;在 HumanEval 和 MBPP 測試中,分別實現(xiàn)了 3.2 倍和 7.8 倍加速,準確率維持在 54.3% 和基線水平附近。
整體來看,F(xiàn)ast-dLLM 在加速的同時,準確率僅下降 1-2 個百分點,證明其有效平衡速度與質量。這項研究通過解決推理效率和解碼質量問題,讓擴散模型在實際語言生成任務中具備了與自回歸模型競爭的實力,為未來廣泛應用奠定了基礎。
附上參考地址
Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding論文
Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding項目界面
本文鏈接:http://www.www897cc.com/showinfo-45-13399-0.html英偉達合作推出 Fast-dLLM 框架,AI 擴散模型推理速度最高飆升 27.6 倍
聲明:本網(wǎng)頁內容旨在傳播知識,若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com