近日,阿里巴巴正式揭曉了其新一代大模型Qwen3系列的技術(shù)細節(jié),通過一份詳盡的技術(shù)報告,向公眾展示了該系列模型的混合推理架構(gòu)、獨特的訓(xùn)練策略以及令人矚目的評測成績。報告顯示,Qwen3系列的旗艦?zāi)P蚎wen3-235B-A22B在數(shù)學(xué)推理、代碼生成等多個核心評測領(lǐng)域,超越了包括DeepSeek-R1和Grok-3在內(nèi)的國際頂尖模型。
Qwen3系列大模型于4月29日正式發(fā)布,涵蓋了6款稠密模型和2款MoE模型,參數(shù)規(guī)模從0.6B到235B不等。其中,旗艦?zāi)P蚎wen3-235B-A22B憑借22B的激活參數(shù),實現(xiàn)了235B的總參數(shù)量,并在編程、數(shù)學(xué)推理等基準(zhǔn)測試中表現(xiàn)出色,超越了全球多個頂尖模型。
Qwen3系列的核心創(chuàng)新在于其雙系統(tǒng)推理架構(gòu)。面對復(fù)雜的數(shù)學(xué)證明、代碼生成等任務(wù)時,模型會啟動“慢思考”深度推理模塊,支持高達38K token的動態(tài)思考預(yù)算,進行多步驟邏輯鏈分析。而在日常對話場景下,模型則以“快思考”模式運行,僅需激活20%的參數(shù),從而實現(xiàn)了60%的響應(yīng)速度提升和40%的算力消耗降低。
Qwen3系列模型的后訓(xùn)練流程設(shè)計圍繞兩大核心目標(biāo):一是“思考控制”,通過集成“非思考”與“思考”兩種模式,用戶可以根據(jù)需求靈活選擇模型是否進行推理,并通過指定token預(yù)算來控制思考深度;二是“慢思考”,旨在簡化和優(yōu)化輕量級模型的后訓(xùn)練過程,借助大規(guī)模模型的知識,大幅降低構(gòu)建小規(guī)模模型所需的計算成本和工作量。
在性能評測方面,旗艦?zāi)P蚎wen3-235B-A22B表現(xiàn)出色。在數(shù)學(xué)推理的AIME25奧數(shù)測評中,該模型獲得了81.5分的高分,刷新了開源模型的紀(jì)錄,遠超DeepSeek-R1等頂尖模型。在代碼生成的LiveCodeBench評測中,Qwen3-235B-A22B同樣表現(xiàn)出色,得分超過70分,超越了Grok-3-Beta和DeepSeek-R1等主流模型。
Qwen3系列模型還支持跨模態(tài)任務(wù),集成了視覺(Qwen3-VL)和音頻(Qwen3-Audio)模塊,能夠應(yīng)用于醫(yī)學(xué)影像分析等領(lǐng)域。在硬件與效率優(yōu)化方面,MoE模型采用動態(tài)激活專家策略,僅需4張H20加速卡便能實現(xiàn)235B旗艦?zāi)P偷牟渴稹wen3系列模型在參數(shù)效率、推理成本、多語言支持及AI Agent開發(fā)等多個維度均展現(xiàn)出顯著優(yōu)勢。
Qwen3-235B-A22B于今年5月6日成功登頂國際權(quán)威大模型測評榜LiveBench開源大模型性能的榜首,進一步證明了其卓越的性能和實力。Qwen3系列模型通過混合推理架構(gòu)與高效訓(xùn)練策略,樹立了開源模型的新標(biāo)桿,正在逐步縮小與頂尖閉源產(chǎn)品的差距。
本文鏈接:http://www.www897cc.com/showinfo-45-12861-0.html阿里Qwen3大模型登頂開源榜首,235B參數(shù)展現(xiàn)強勁實力
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com