日韩成人免费在线_国产成人一二_精品国产免费人成电影在线观..._日本一区二区三区久久久久久久久不

當前位置:首頁 > 元宇宙 > AI

AI 架構 Transformer 再進化:谷歌新方法突破長文本處理,注意力模塊內存需求可降至 1 47

來源: 責編: 時間:2024-10-11 16:31:21 86觀看
導讀 10 月 9 日消息,科技媒體 marktechpost 昨日(10 月 8 日)發布博文,報道稱谷歌公司推出了選擇性注意力(Selective Attention)方法,可以提高 Transformer 架構模型的性能。Transformer 架構簡介Transformer 是一種革命

10 月 9 日消息,科技媒體 marktechpost 昨日(10 月 8 日)發布博文,報道稱谷歌公司推出了選擇性注意力(Selective Attention)方法,可以提高 Transformer 架構模型的性能。muX28資訊網——每日最新資訊28at.com

Transformer 架構簡介

Transformer 是一種革命性的神經網絡架構,由谷歌在 2017 年提出,主要用于處理序列數據,特別是在自然語言處理(NLP)領域。muX28資訊網——每日最新資訊28at.com

Transformer 的核心是自注意力機制,允許模型在處理輸入序列時捕捉詞與詞之間的關系,讓模型能夠關注輸入序列中的所有部分,而不僅僅是局部信息。muX28資訊網——每日最新資訊28at.com

Transformer 由多個編碼器和解碼器組成。編碼器負責理解輸入數據,而解碼器則生成輸出。多頭自注意力機制使模型能夠并行處理信息,提高了效率和準確性。muX28資訊網——每日最新資訊28at.com

Transformer 架構模型挑戰

Transformer 架構的一大挑戰是它們在處理長文本序列時效率低下,由于每個標記與序列中的每個其他標記都相互作用導致二次復雜度,這就導致隨著上下文長度的增加,計算和內存需求呈指數增長。muX28資訊網——每日最新資訊28at.com

現在解決這一問題的方法包括稀疏注意力機制(sparse attention mechanisms),它限制了標記之間的交互數量,以及通過總結過去信息來減少序列長度的上下文壓縮技術。muX28資訊網——每日最新資訊28at.com

不過這種方法是通過減少在注意力機制中考慮的標記數量達成的,因此通常以性能為代價,可能會導致上下文關鍵信息丟失。muX28資訊網——每日最新資訊28at.com

谷歌新方法

谷歌研究的研究人員提出了一種名為選擇性注意的新方法,可以動態忽略不再相關的標記,從而提高 Transformer 模型的效率。muX28資訊網——每日最新資訊28at.com

選擇性注意力使用軟掩碼矩陣來確定每個標記對未來標記的重要性,減少對不重要標記的關注。muX28資訊網——每日最新資訊28at.com

研究表明,配備選擇性注意的 Transformer 架構模型在多個自然語言處理任務中表現出色,同時顯著降低了內存使用和計算成本。muX28資訊網——每日最新資訊28at.com

muX28資訊網——每日最新資訊28at.com

muX28資訊網——每日最新資訊28at.com

例如,在擁有 1 億參數的 Transformer 模型中,注意力模塊的內存需求在上下文大小為 512、1024 和 2048 個 tokens 時分別減少至 1/16、1/25 和 1/47。所提方法在 HellaSwag 基準測試中也優于傳統 Transformer,對于較大的模型規模實現了高達 5% 的準確率提升。muX28資訊網——每日最新資訊28at.com

選擇性注意力允許構建更小、更高效的模型,在不損害準確性的情況下,顯著減少內存需求。muX28資訊網——每日最新資訊28at.com

附上參考地址muX28資訊網——每日最新資訊28at.com

Selective Attention Improves Transformer muX28資訊網——每日最新資訊28at.com

This AI Paper from Google Introduces Selective Attention: A Novel AI Approach to Improving the Efficiency of Transformer ModelsmuX28資訊網——每日最新資訊28at.com

本文鏈接:http://www.www897cc.com/showinfo-45-8696-0.htmlAI 架構 Transformer 再進化:谷歌新方法突破長文本處理,注意力模塊內存需求可降至 1 47

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com

上一篇: 僅靠微軟無法滿足激增的 AI 計算需求,OpenAI 被曝和甲骨文合作

下一篇: 消息稱 Kimi AI 助手內測深度推理功能,月之暗面有團隊國慶加班 7 天 3 倍工資

標簽:
  • 熱門焦點
  • 2022 區塊鏈 50 強榜單;垃圾NFT項目的十三個特性

    本期關鍵字TerraZero在Decentraland完成元宇宙住房抵押貸款;騰訊發行齊白石畫作數字藏品;Ripple成為數字歐元協會成員;Gem上線稀有度排名功能;2022 區塊鏈 50 強榜
  • 8個最適合藝術家發行NFT的交易市場

    近年來,加密風靡全球。加密圈最令人興奮的方面之一是它能夠用于創建稱為NFT 的數字資產。從 CyberKitties 到 Cyber Galleries,NFT 已成為藝術家和藝術鑒賞家的
  • 2022年中國元宇宙系列報告:底層架構研究:虛擬引擎,擎動未來

    “虛擬引擎是元宇宙平臺搭建的基本工具。在這樣的條件下,虛擬引擎擁有了廣闊的市場空間。也需要虛擬引擎擁有擁有強大的處理能力,能夠高效快速的實現大量交互場
  • 權限風波過后 X2Y2如何挑戰OpenSea?

    繼LooksRare之后,又一個OpenSea挑戰者X2Y2來了。上周,X2Y2宣布向超過86萬個OpenSea交易用戶發放X2Y2通證空投,并啟動了「掛單挖礦」的獎勵機制。這場早期激勵活動
  • NFT 技術將傳世之作帶入博物館

    意大利四大博物館已與一個項目合作,該項目將展示和銷售達芬奇、卡拉瓦喬、拉斐爾和莫迪利亞尼等人的杰作的 NFT復制品。該計劃采用了 科技公司Cincello的國際專
  • 就業年齡歧視如何解決?來Web3看看

    上周,我突然想到我的第一份工作實際上是在為一家失敗的航空公司制定破產退出計劃,那年我們的協議實習生剛出生。在一陣恐慌后,我又花了一點時間反思我這個擁有近1
  • Staking 收益翻倍?

    以太坊質押可能很快就會有兩倍的利潤。Coinbase 估計,在 1 月份以太坊網絡合并后,持有 ETH 的回報將翻倍。增長預期假設來自加密貨幣交易所 Coinbase 的估計是準
  • 元宇宙的應用行業研究:娛樂可能是元宇宙落地最快的場景之一

    近日,畢馬威正式發布其《初探元宇宙》報告,這也是畢馬威在元宇宙領域發布的首份報告。報告指出,元宇宙在以下十個領域的應用場景尤其值得期待,包括娛樂、社交、零
  • 從NFT數字收藏,洞察數字音樂版權市場發展趨勢

    去年8月9日,騰訊音樂布局NFT數字收藏,在騰訊應用寶發布幻核app,騰訊音樂的提前布局示意著未來區塊鏈技術將對數字音樂版權市場進行改造升級。作者從深層測分析為
Top 主站蜘蛛池模板: 昆山市| 色达县| 石渠县| 涪陵区| 大化| 常熟市| 新巴尔虎右旗| 曲麻莱县| 资阳市| 平果县| 平潭县| 敖汉旗| 独山县| 额尔古纳市| 马龙县| 新安县| 资源县| 六枝特区| 平阳县| 手游| 额济纳旗| 天长市| 太仆寺旗| 绥芬河市| 宁远县| 南宫市| 扎鲁特旗| 新密市| 民权县| 武城县| 桂平市| 桑日县| 商水县| 宜良县| 泰安市| 龙川县| 镇康县| 中超| 吉木萨尔县| 太原市| 庆元县|