日韩成人免费在线_国产成人一二_精品国产免费人成电影在线观..._日本一区二区三区久久久久久久久不

當前位置:首頁 > 科技  > 知識百科

谷歌:性能不佳的微調模型不要扔,求一下平均權重就能提升性能

來源: 責編: 時間:2023-08-07 16:30:02 245觀看
導讀 本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。如何最大限度地提升模型精度?最近,谷歌等機構發現:性能不好的微調模型先不要扔,求一下平均權重!就能在不增加推理

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。EiJ28資訊網——每日最新資訊28at.com

如何最大限度地提升模型精度?EiJ28資訊網——每日最新資訊28at.com

最近,谷歌等機構發現:EiJ28資訊網——每日最新資訊28at.com

性能不好的微調模型先不要扔,求一下平均權重!EiJ28資訊網——每日最新資訊28at.com

就能在不增加推理時間以及內存開銷的情況下,提高模型的準確性和魯棒性。EiJ28資訊網——每日最新資訊28at.com

比如,研究人員就使用該方法創造了ImageNet1K的新紀錄:90.94%。EiJ28資訊網——每日最新資訊28at.com

EiJ28資訊網——每日最新資訊28at.com

將它擴展到多個圖像分類以及自然語言處理任務中,也能提高模型的分布外性能,并改善新下游任務的零樣本性能。EiJ28資訊網——每日最新資訊28at.com

而這個方法還有一個有趣的名字,叫Module soup——EiJ28資訊網——每日最新資訊28at.com

是不是讓人一下子就讓人聯想到了斐波那契湯的笑話?(昨天的湯+前天的湯=今天的新湯)EiJ28資訊網——每日最新資訊28at.com

EiJ28資訊網——每日最新資訊28at.com

△ 知乎網友@hzwer,已授權EiJ28資訊網——每日最新資訊28at.com

一共三種配方EiJ28資訊網——每日最新資訊28at.com

回想一下在此之前,大家是如何給模型漲點的呢?EiJ28資訊網——每日最新資訊28at.com

是不是先用各種超參數訓練出多個微調模型,然后再挑出驗證集上表現最好的那一個留下,其余丟掉?EiJ28資訊網——每日最新資訊28at.com

由于神經網絡是非線性的,在不同的loss basin中可能有許多解,因此Module soup這一采用保留所有微調模型的權重,對其進行平均的方法就可以提高性能,還是讓人有點驚訝的。EiJ28資訊網——每日最新資訊28at.com

不過,最近就已有研究發現,從相同的初始化配置中中獨立優化的微調模型,位于相同的誤差范圍內 (lie in the same basin of the error landscape)。EiJ28資訊網——每日最新資訊28at.com

之前也有研究證明,沿單個訓練軌跡進行權重平均,可以提高隨機初始化訓練模型的性能。EiJ28資訊網——每日最新資訊28at.com

作者正是從這些結論中受到啟發。EiJ28資訊網——每日最新資訊28at.com

Module soup一共有三種“配方”(實現):統一湯(uniform soup)、貪婪湯(greedy soup)和學習湯(learned soup)。EiJ28資訊網——每日最新資訊28at.com

其中greedy soup是最主要采用的實現,因為它的性能比直接均勻地平均所有權重更高。EiJ28資訊網——每日最新資訊28at.com

具體來說,Greedy soup通過順序添加每個模型作為“湯”中的潛在成分構建而成,并且只有在保持驗證集上的性能有所提高時才將相應模型保留在“湯”中。EiJ28資訊網——每日最新資訊28at.com

排序按驗證集精度的降序排列。EiJ28資訊網——每日最新資訊28at.com

EiJ28資訊網——每日最新資訊28at.com

性能超越單個最佳微調模型EiJ28資訊網——每日最新資訊28at.com

作者進行了全面的微調實驗來確定Module soup的有效性。EiJ28資訊網——每日最新資訊28at.com

首先是微調CLIP和ALIGN,這兩個模型在圖像-文本對上進行了對比損失預訓練。EiJ28資訊網——每日最新資訊28at.com

結果經過module soup操作后,兩者在分布內和自然分布轉移(distribution shifts)測試集上的表現都比最佳的單個微調模型性能更佳。EiJ28資訊網——每日最新資訊28at.com

EiJ28資訊網——每日最新資訊28at.com

△ 左為CLIP,右為ALIGNEiJ28資訊網——每日最新資訊28at.com

然后是在JFT數據集上預訓練的ViT-G模型。EiJ28資訊網——每日最新資訊28at.com

也就是它在ImageNet1K數據集實現了90.94%的精度,打破了此前CoAtNet保持的90.88%,同時在推理階段還減少了25%的FLOPs。EiJ28資訊網——每日最新資訊28at.com

EiJ28資訊網——每日最新資訊28at.com

在圖像分類任務以外,作者在NLP領域也對module soup進行了驗證。EiJ28資訊網——每日最新資訊28at.com

下表是BERT和T5模型在GLUE benchmark的四個文本分類任務上的結果:EiJ28資訊網——每日最新資訊28at.com

EiJ28資訊網——每日最新資訊28at.com

可以發現,雖然改進不如圖像分類中的效果明顯,但在多數任務下,greedy soup都可以相較最好的單個模型提高性能。EiJ28資訊網——每日最新資訊28at.com

當然,作者也指出,module soup在適用性等方面存在局限,比如現在測試的都是在大型異構數據集上預先訓練的模型,在這些模型之外,效果并不是非常明顯。EiJ28資訊網——每日最新資訊28at.com

最后,知乎網友@宮醬手藝人表示,其實這樣的模型參數平均是一個經典trick,transformer原始論文就用了。EiJ28資訊網——每日最新資訊28at.com

EiJ28資訊網——每日最新資訊28at.com

你發現了嗎?EiJ28資訊網——每日最新資訊28at.com

論文地址:EiJ28資訊網——每日最新資訊28at.com
https://arxiv.org/abs/2203.0548EiJ28資訊網——每日最新資訊28at.com

 EiJ28資訊網——每日最新資訊28at.com

本文鏈接:http://www.www897cc.com/showinfo-119-2219-0.html谷歌:性能不佳的微調模型不要扔,求一下平均權重就能提升性能

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com

上一篇: 云安全日報220317:紅帽OpenShift云應用平臺發現執行任意代碼漏洞,需要盡快升級

下一篇: 終于不瞎編了!AI學會“谷歌一下”,Q&A正確率達90%

標簽:
  • 熱門焦點
Top 主站蜘蛛池模板: 彝良县| 漳平市| 镇沅| 西华县| 阿拉善左旗| 兴文县| 防城港市| 湖州市| 隆子县| 祥云县| 鲁山县| 游戏| 德令哈市| 鹤壁市| 资阳市| 泾阳县| 洱源县| 连南| 阿尔山市| 益阳市| 罗定市| 白水县| 肃南| 定日县| 邛崃市| 耿马| 东方市| 永福县| 舞阳县| 渝北区| 望谟县| 荆州市| 禹城市| 南靖县| 荔浦县| 新和县| 丹凤县| 许昌县| 云安县| 永寿县| 崇文区|