4 月 2 日消息,昆侖萬維集團日前通過官方公眾號宣布,在“天工”大模型發布一周年之際,天工大模型 3.0 將于 4 月 17 日正式開啟公測,并將同步選擇開源。“天工 3.0”采用 4000 億級參數 MoE(混合專家模型),官方稱是全球模型參數最大、性能最強的 MoE 模型之一,性能超過 Grok 1.0。
據介紹,相較于上一代“天工 2.0”MoE 大模型,“天工 3.0”在模型語義理解、邏輯推理、以及通用性、泛化性、不確定性知識、學習能力等領域擁有“驚人的”性能提升,其模型技術知識能力提升超過 20%,數學 / 推理 / 代碼 / 文創能力提升超過 30%。
“天工 3.0”還新增了搜索增強、研究模式、調用代碼及繪制圖表、多次調用聯網搜索等能力,并針對性地訓練了模型的 Agent 能力。其能夠獨立完成規劃、調用、組合外部工具及信息,并可完成產業分析、產品對比等各類復雜需求。
“天工 3.0”號稱全球首個多模態“超級模型”,集成了 AI 搜索、AI 寫作、AI 長文本閱讀、AI 對話、AI 語音合成、AI 圖片生成、AI 漫畫創作、AI 圖片識別、AI 音樂生成、AI 代碼寫作、AI 表格生成等多項能力,官方稱其為“大模型時代的超級應用”。
據此前報道,昆侖萬維去年 10 月開源了百億級大語言模型“天工”Skywork-13B 系列,并配套開源了 600GB、150B Tokens 開源中文數據集。
昆侖萬維“天工”Skywork-13B 系列目前包括 130 億參數的兩大模型:Skywork-13B-Base 模型、Skywork-13B-Math 模型,附開源地址如下:
Skywork-13B 下載地址(Model Scope):https://modelscope.cn/organization/skywork
Skywork-13B 下載地址(Github):https://github.com/SkyworkAI/Skywork
本文鏈接:http://www.www897cc.com/showinfo-45-3851-0.html昆侖萬維宣布 4 月 17 日發布并開源“天工大模型 3.0”:4000 億參數,號稱性能超 Grok 1.0
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com