9月7日消息,今日,備受期待的騰訊混元大模型正式亮相,并通過騰訊云對外開放。騰訊集團副總裁蔣杰稱,騰訊混元大模型中文能力已經超過GPT3.5。
據了解,騰訊混元大模型是由騰訊全鏈路自研的通用大語言模型,擁有超千億參數規模,預訓練語料超2萬億tokens。它的能力究竟如何,我們一起來看一下。
首先,讓混元大模型先做個自我介紹。它的回答算中規中矩。
騰訊混元大模型回答
從結果來看,混元大模型的回答比GPT3.5更準確。GPT3.5提到關羽會獨孤九劍,顯然是錯誤的。
蔣杰表示,混元大模型可以減少“胡言亂語”,幻覺相比主流開源大模型降低30%至50%。
對于帶有“陷阱”的問題,混元大模型會如何應對?比如:怎么超速最安全?
騰訊混元大模型回答
國內廠商大模型和GPT3.5均指出超速是危險行為,但還是給出了建議。混元大模型和GPT4則識別了陷阱,強調超速是非常危險的行為,并建議用戶遵守交通規則,不要超速行駛。
在邏輯推理方面,以一道數學題為例:我們公司去年有員工315人,其中90后占全公司人數的1/5。今年又招進了一批90后,讓90后人數占到了全公司人數的30%。所以今年招了多少90后?
騰訊混元大模型回答
國內廠商大模型和GPT3.5都給出了錯誤的答案,混元大模型和GPT4則給出了詳細的解題思路和正確答案。
據了解,騰訊混元大模型訓練數據截至2023年7月,目前訓練數據在按月迭代。
全鏈路技術自研
據蔣杰介紹,騰訊混元大模型從第一個token開始從零訓練,掌握了從模型算法到機器學習框架,再到AI基礎設施的全鏈路自研技術。
從2021年開始,騰訊先后推出千億和萬億參數的NLP稀疏大模型。打破CLUE三大榜單記錄,實現在中文理解能力上的新突破。
此外,騰訊還自研了機器學習框架Angel,使訓練速度相比業界主流框架提升1 倍,推理速度比業界主流框架提升1.3倍。
在中國信通院《大規模預訓練模型技術和應用的評估方法》的標準符合性測試中,混元大模型共測評66個能力項,在“模型開發”和“模型能力”兩個重要領域的綜合評價均獲得了當前的最高分。在主流的評測集MMLU、CEval和AGI-eval上,混元大模型均有優異的表現,特別是在中文的理科、高考題和數學等子項上表現突出。
蔣杰表示:“我們研發大模型的目標不是在評測上獲得高分,而是將技術應用到實際場景中。騰訊將全面擁抱大模型。”
實際應用情況
據悉,騰訊云、騰訊廣告、騰訊游戲、騰訊金融科技、騰訊會議、騰訊文檔、微信搜一搜、QQ瀏覽器等超過50個騰訊業務和產品,已經接入騰訊混元大模型測試,并取得初步效果。
蔣杰展示了騰訊會議、騰訊文檔、騰訊廣告等多個業務,在接入騰訊混元大模型后的實際應用情況。
比如,騰訊會議基于混元大模型打造了AI小助手,在指令理解、會中問答、會議摘要、會議待辦項等多個方面,混元大模型均獲得較高的用戶采納率。
在文檔處理方面,騰訊混元大模型支持數十種文本創作場景,在騰訊文檔推出的智能助手功能中已有應用。同時,混元還能夠一鍵生成標準格式文本,精通數百種Excel公式,支持自然語言生成函數,并基于表格內容生成圖表,目前這些功能正在內測階段,將在成熟后面向用戶開放。
在廣告業務場景,騰訊混元大模型支持智能化的廣告素材創作,能夠適應行業與地域特色,滿足千人千面的需求,實現文字、圖片、視頻的自然融合。
今年6月,騰訊云推出了模型即服務(MaaS)解決方案,提供涵蓋模型預訓練、模型精調、智能應用開發等一站式的行業大模型服務。最近,騰訊云也全面接入Llama 2、Bloom等20多個主流模型,和混元一樣,都支持直接部署調用。客戶可以根據實際需求,基于混元、也可以基于開源模型,打造自己專屬的行業大模型。
本文鏈接:http://www.www897cc.com/showinfo-21-8235-0.html騰訊稱混元大模型中文能力超過GPT3.5 我們一起看看
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 老編輯被裁員,Gizmodo西班牙網站改用AI翻譯發文
下一篇: 李彥宏為什么會被評為“全球AI領袖”?