在近期揭曉的第63屆國際計算語言學年會ACL 2025論文接收名單中,國內人工智能企業云知聲大放異彩,成功收獲4篇入選論文,其中主會論文與Findings各占兩篇。這些論文聚焦于大語言模型的知識溯源、圖文音多模態融合、模型可解釋性等前沿領域,所提出的創新理論與方法為行業研究注入了新的活力。
ACL年會作為自然語言處理領域最具權威性的國際會議之一,每年吸引著全球頂尖學者與研究機構的積極參與。本屆ACL將于2025年7月在奧地利維也納舉行,會議投稿量創歷史新高,超過8000篇,競爭異常激烈。云知聲能在如此高水平的國際舞臺上脫穎而出,無疑是對其技術實力與科研能力的有力證明。
自成立以來,云知聲在自然語言處理領域深耕細作,不斷取得突破性進展。特別是在深度學習模型如Transformer與BERT相繼問世后,云知聲憑借其在交互式AI方面的深厚積累,迅速推出了基于BERT的大語言模型UniCore,為后續AI解決方案的廣泛應用奠定了堅實基礎。近年來,云知聲更是在自建的Atlas智算平臺與海量數據支持下,推出了千億參數級別的山海大模型,該模型不僅具備強大的語言生成、知識問答、邏輯推理等能力,還在多模態技術上不斷取得新突破,為用戶帶來了更為豐富的交互體驗。
在技術創新的同時,云知聲也收獲了多項與自然語言處理相關的專利成果,如多語言摘要生成方法、知識增強的非自回歸神經機器翻譯方法等,這些專利為多場景應用提供了堅實的技術支撐。在學術研究與行業認可方面,云知聲同樣表現不俗,曾在CVPR 2024、INTERSPEECH 2023等國際頂級會議上發表多篇學術著作,并在CVPR 2024開放環境情感行為分析競賽中斬獲三項季軍。此次ACL年會的再度入選,進一步彰顯了云知聲在AI領域的領先地位。
以下是云知聲入選論文的亮點概覽:
在知識溯源方面,云知聲團隊提出了TROVE任務,旨在解決大語言模型在文本生成中的可靠性問題。該研究通過構建包含不同場景與語言的數據集,對多個大語言模型進行了評估,揭示了檢索在提升模型魯棒性方面的重要性。
在模型可解釋性方面,云知聲團隊深入探索了簡并知識神經元(DKNs)的概念,通過神經拓撲聚類方法更準確地識別了DKNs,并展示了其在引導大語言模型學習新知識及增強模型魯棒性方面的應用潛力。
在圖文音多模態大模型方面,云知聲團隊針對全模態大語言模型在處理視覺與音頻模態對齊不足的問題,提出了一種自知識蒸餾(Self-KD)的訓練方法,有效提升了模型在視覺-音頻任務上的性能。
云知聲團隊還提出了“基于上下文-先驗的引用生成”任務,旨在提升大語言模型在綜合利用內外部知識時生成答案的可信度。通過開發RAEL框架與INTRALIGN方法,該團隊在多個場景下對模型進行了測試,取得了顯著成果。
本文鏈接:http://www.www897cc.com/showinfo-45-13097-0.html云知聲ACL 2025再展實力,4篇大模型研究論文成功入選!
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com