5 月 14 日消息,騰訊宣布旗下的混元文生圖大模型升級并對外開源,目前已經在 Hugging Face 及 Github 上發布,包含模型權重、推理代碼、模型算法等完整模型,可供企業與個人開發者免費商用。
升級后的混元文生圖大模型采用了與 Sora 一致的 DiT 架構,騰訊表示,混元 DiT 是首個中英雙語 DiT 架構。混元 DiT 是一個基于 Diffusion transformer 的文本到圖像生成模型,此模型具有中英文細粒度理解能力,混元 DiT 能夠與用戶進行多輪對話,根據上下文生成并完善圖像。這也是業內首個中文原生的 DiT 架構文生圖開源模型,支持中英文雙語輸入及理解,參數量 15 億。
運行該模型需要支持CUDA的英偉達 GPU,單獨運行混元 DiT 所需的最低顯存為 11GB,同時運行 DialogGen(騰訊推出的文本轉圖像多模態交互式對話系統)和混元 DiT 則至少需要 32GB 的顯存,騰訊表示他們已經在 Linux 上測試了英偉達的 V100和A100 GPU。
據此前報道,國內首個官方“大模型標準符合性評測”結果公布,騰訊混元大模型、成為首批通過評測的國產大模型,首批通過的大模型還有阿里通義千問、360智腦和百度文心一言。
本文鏈接:http://www.www897cc.com/showinfo-45-4252-0.html騰訊混元文生圖大模型對外開源:搭載首個中英雙語 DiT 架構,免費商用
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com