4 月 25 日消息,科技媒體 marktechpost 今天(4 月 25 日)發布博文,報道稱英偉達專為數學推理設計,發布 OpenMath-Nemotron-32B 和 OpenMath-Nemotron-14B-Kaggle 兩款先進 AI 模型。
數學推理一直是 AI 領域的巨大挑戰。傳統的語言模型擅長生成流暢文本,卻在解決復雜數學問題時顯得力不從心,這些問題不僅需要理解抽象概念,還要求多步驟的邏輯推導。
援引博文介紹,英偉達針對這一難題,推出了 OpenMath-Nemotron-32B 和 OpenMath-Nemotron-14B-Kaggle 兩款模型,基于 Qwen 系列 transformer 模型,通過在 OpenMathReasoning 數據集上的深度微調,顯著提升了數學推理能力。
OpenMath-Nemotron-32B 是系列中的旗艦產品,擁有 328 億參數,采用 BF16 張量運算優化硬件效率。該模型在 AIME 2024、AIME 2025、HMMT 2024-25 等多項基準測試中取得領先成績。
以工具集成推理(TIR)模式為例,其在 AIME24 上的 pass@1 準確率達到 78.4%,通過多數投票機制更是提升至 93.3%。
此外,模型支持鏈式思維(CoT)、工具集成推理(TIR)和生成式選擇(GenSelect)三種模式,用戶可根據需求平衡推理透明度和答案精確度,滿足科研和生產環境的不同場景。
OpenMath-Nemotron-14B-Kaggle 是一款 148 億參數的輕量模型,針對 AIMO-2 Kaggle 競賽優化設計,通過精選 OpenMathReasoning 數據集子集進行微調,成功奪得競賽第一名。
在 AIME24 測試中,其 CoT 模式下 pass@1 準確率為 73.7%,GenSelect 模式下提升至 86.7%。這款模型參數更少,保持高質量的數學解題能力的同時,適合資源受限或低延遲需求的場景。
英偉達為兩款模型提供了開源管道,集成于 NeMo-Skills 框架中,支持數據生成、訓練和評估的全流程復現。開發者可通過示例代碼快速構建應用,獲取逐步解答或簡潔答案。
模型針對 NVIDIA GPU(如 Ampere 和 Hopper 架構)深度優化,利用 CUDA 庫和 TensorRT 技術,確保高效運行。同時,采用 Triton Inference Server 支持低延遲、高吞吐量的部署,BF16 格式則在內存占用與性能間取得平衡,助力大規模應用落地。
本文鏈接:http://www.www897cc.com/showinfo-45-12649-0.htmlAI 數學推理新王:英偉達發布兩款 OpenMath-Nemotron 模型,刷新 AIME 準確率紀錄
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com