4 月 20 日消息,來自 GitHub 的 Lvmin Zhang 與斯坦福大學(xué)的 Maneesh Agrawala 合作,共同推出了一項名為 FramePack 的創(chuàng)新技術(shù)。該技術(shù)通過采用固定長度的時域上下文(fixed-length temporal context)對視頻擴散模型(video diffusion)進行了實用化實現(xiàn),顯著提高了處理效率,使得在較低硬件配置下生成更長、更高質(zhì)量的 AI 視頻成為可能。基于 FramePack 架構(gòu)構(gòu)建的一個 130 億參數(shù)模型,僅需 6GB 顯存即可生成長達 60 秒的視頻片段。
據(jù)了解,F(xiàn)ramePack 是一種神經(jīng)網(wǎng)絡(luò)架構(gòu),其核心優(yōu)勢在于利用多階段優(yōu)化技術(shù),有效降低了本地運行 AI 視頻生成任務(wù)對硬件的要求。據(jù)報道,目前 FramePack 的圖形用戶界面(GUI)內(nèi)部運行的是一個定制的、基于混元(Hunyuan)的模型,但研究論文同時指出,現(xiàn)有的預(yù)訓(xùn)練模型也可以通過 FramePack 技術(shù)進行微調(diào)以適配該架構(gòu)。
傳統(tǒng)的視頻擴散模型在生成視頻時,通常需要處理先前生成的所有帶噪幀(noisy frames)數(shù)據(jù)來預(yù)測下一個噪聲更少的幀。這個過程中所參考的輸入幀數(shù)量被稱為“時域上下文長度”,它會隨著視頻長度的增加而增長。這導(dǎo)致標(biāo)準(zhǔn)的視頻擴散模型對顯存(VRAM)有著極高的要求,通常需要 12GB 甚至更多。雖然可以通過降低視頻長度、犧牲畫面質(zhì)量或延長處理時間來減少顯存消耗,但這并非理想解決方案。
為此,F(xiàn)ramePack 應(yīng)運而生。該新架構(gòu)能根據(jù)幀的重要性對其進行壓縮,并匯集到一個固定大小的上下文長度內(nèi),從而極大地降低了 GPU 的顯存開銷。所有輸入幀都經(jīng)過壓縮處理,以確保滿足預(yù)設(shè)的上下文長度上限。研究者表示,經(jīng)過優(yōu)化后,F(xiàn)ramePack 的計算成本與圖像擴散模型的成本相近。
此外,F(xiàn)ramePack 還結(jié)合了緩解“漂移”(drifting)現(xiàn)象的技術(shù) —— 即視頻質(zhì)量隨長度增加而下降的問題,從而在不顯著犧牲保真度的情況下,支持生成更長的視頻內(nèi)容。
在硬件兼容性方面,目前 FramePack 明確要求使用支持 FP16 和 BF16 數(shù)據(jù)格式的英偉達 RTX 30、40 或 50 系列 GPU。對于圖靈(Turing)架構(gòu)及更早的英偉達顯卡,以及 AMD 和 Intel 的硬件支持情況,目前尚未得到驗證。操作系統(tǒng)方面,Linux 已確認在支持列表之中。考慮到 6GB 顯存的需求,除了 RTX 3050 4GB 等少數(shù)型號外,市面上大多數(shù)現(xiàn)代 RTX 顯卡都能滿足運行要求。
性能方面,以 RTX 4090 為例,在啟用 teacache 優(yōu)化后,生成速度可達約每秒 0.6 幀。實際速度會因用戶顯卡型號的不同而有所差異。值得一提的是,F(xiàn)ramePack 在生成過程中會逐幀顯示畫面,提供即時的視覺反饋。
目前,F(xiàn)ramePack 所使用的模型可能有 30 幀 / 秒的上限,這或許會限制部分用戶的需求,但 FramePack 的出現(xiàn)無疑為普通消費者進行 AI 視頻創(chuàng)作鋪平了道路,提供了一種替代昂貴第三方云服務(wù)的可行方案。即使對于非專業(yè)內(nèi)容創(chuàng)作者,這項技術(shù)也為制作 GIF 動圖、表情包等娛樂內(nèi)容提供了有趣的工具。
本文鏈接:http://www.www897cc.com/showinfo-45-12479-0.htmlFramePack 降低 AI 視頻生成硬件門檻,6GB 顯存即可生成 60 秒視頻
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com