6 月 25 日消息,今年年初,英偉達(dá)在 CES 2025 上宣布 DLSS 4 升級(jí),包含光線重建、超級(jí)分辨率和 DLAA 抗鋸齒技術(shù)三大改進(jìn),英偉達(dá)宣稱這是行業(yè)首個(gè)基于 Transformer 架構(gòu)的實(shí)時(shí)渲染模型。
經(jīng)過近六個(gè)月的 Beta 測(cè)試后,英偉達(dá)今日發(fā)布了最新的 NVIDIA DLSS SDK 310.3.0,并表示該模型已正式脫離 Beta 階段,為未來的升級(jí)和圖像質(zhì)量模型奠定了基礎(chǔ)。
據(jù)英偉達(dá)介紹,之前的 DLSS 版本依賴于卷積神經(jīng)網(wǎng)絡(luò)(CNN),但該技術(shù)僅能處理局部幀區(qū)域像素,該公司已做到了 CNN 所能實(shí)現(xiàn)的極限,僅發(fā)布新的升級(jí)配置文件已不再足夠。
新的 Transformer模型比 CNN 更先進(jìn),其模型參數(shù)量達(dá)前代兩倍,可分析整幀畫面而不再專注于局部?jī)?nèi)容。此外,Transformer 還具備跨幀像素重要性評(píng)估能力,從而評(píng)估每個(gè)像素的重要性。
英偉達(dá)表示,Transformer模型對(duì)場(chǎng)景有更深的理解。它能提供更穩(wěn)定的像素(減少畫面閃爍和偽影),減少 31% 動(dòng)態(tài)場(chǎng)景重影,提升運(yùn)動(dòng)物體細(xì)節(jié)程度、增強(qiáng)邊緣平滑度。IT酷哥注意到,它同時(shí)還改善了光線重建的圖像質(zhì)量,特別是在復(fù)雜光線場(chǎng)景中。
相關(guān)閱讀:
《AI 架構(gòu) Transformer 再進(jìn)化:谷歌新方法突破長文本處理,注意力模塊內(nèi)存需求可降至 1/47》
《華為改進(jìn) Transformer 架構(gòu):盤古-π 解決特征缺陷問題,同規(guī)模性能超 LLaMA》
《全球首款 Transformer 專用 AI 芯片 Sohu 登場(chǎng):每秒可處理 50 萬個(gè) tokens,比英偉達(dá) H100 快 20 倍》
本文鏈接:http://www.www897cc.com/showinfo-26-164077-0.html英偉達(dá) DLSS Transformer 模型正式脫離 Beta 測(cè)試
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: 小米 MIX Flip 2 定價(jià)引猜想?聯(lián)想 moto razr 60 系列暑期滿分特惠超值不用等!
下一篇: 我國自主研發(fā)大型水陸兩棲飛機(jī) AG600“鯤龍”計(jì)劃維修要求正式獲得局方批準(zhǔn)