在 DeepSeek App 上線一個月之際,聯想正式宣布,旗下大模型訓推一體 AI 算力平臺聯想問天 WA7780 G3、大模型推理 AI 算力平臺聯想問天 WA7785a G3 全新升級,單機即可部署 DeepSeek-R1 滿血版大模型(具備 671B 參數)。此次升級將大幅降低客戶部署難度和成本,同時提升模型訓練和推理性能,為 DeepSeek 等最新 AI 應用的落地和規模化發展提供強有力的支持。
據悉,聯想正與 DeepSeek 在個人智能與企業智能兩大領域,開展更全面、深入的合作。其中,聚焦企業智能,聯想中國基礎設施業務與 DeepSeek 的深度融合,正快速實現從訓練到推理的全鏈條產品適配。
據了解,DeepSeek 大模型憑借高性能、低成本和開源三大特點,助力各行業加速應用大模型技術推動業務升級轉型。DeepSeek-R1 滿血版大模型基于 6710 億參數,具備卓越的復雜推理和深度交互能力,眾多企業積極探索并部署 DeepSeek-R1 滿血版大模型以期提升業務效能與競爭力。然而,在實際應用中,用戶在本地接入時不可避免遇到算力基礎設施匱乏、訓練推理服務性能難以達標等一系列難題。
面對用戶實際應用問題,聯想問天 WA7780 G3、聯想問天 WA7785a G3 與 DeepSeek-R1 滿血版大模型特點進行了深度適配調優,單機即可部署 DeepSeek-R1 滿血版大模型,助力企業高效完成本地化部署,一站式構建 AI 生產力,加速智能化升級。
值得一提的是,聯想問天 WA7780 G3 大模型訓推一體服務器是為打破 AI 算力供給困境而來,能夠為訓練推理提供強勁的算力支撐。
?作為領先的 AI 算力平臺,這款服務器內嵌 Transfomer Engine, 支持 FP8 優化,可以幫助 DeepSeek-R1 滿血版大模型獲得更好的模型訓練和推理性能。
?在顯存方面,提供超 1T HBM3e,充分滿足 DeepSeek-R1 滿血版大模型 FP8 精度下不低于 800GB 顯存容量的需求。顯存帶寬高達 4.9TB/s,可以在推理解碼階段實現極致加速。
?在高速互聯方面,GPU P2P 通信帶寬達 900GB/s,同時單機提供 3.2TB/s 的高帶寬低延遲網絡擴展,能夠為 DeepSeek-R1 滿血版大模型提供極低的通信延遲。
聯想問天 WA7785a G3 服務器則聚焦于 AI 算力優化,該大模型推理 AI 算力平臺原生支持 FP8,提供超 1.5T HBM3e,為 DeepSeek-R1 滿血版大模型插上性能騰飛的翅膀。
此外,顯存帶寬達 5.3TB/s 的高速顯存可以減少數據傳輸的瓶頸,從而加速訓練過程,提高模型訓練效率。GPU 聚合帶寬達 896GB/s,同時單機提供 3.2TB/s 的高帶寬低延遲網絡擴展,充分滿足了 DeepSeek-R1 滿血版大模型并行計算時跨節點的通信需求,使其成為用戶首選大模型推理服務器。
此外,聯想正在加速推進 DeepSeek 671B-R1 和 V3 模型及一系列蒸餾模型與其 AI 服務器的適配。未來,聯想將持續創新為企業提供全面、高效、可靠的 IT 基礎設施,加速推動 AI 創新與應用落地,為千行萬業積極擁抱 AI 注入強大動力。
本文鏈接:http://www.www897cc.com/showinfo-26-133077-0.htmlDeepSeek App 滿月聯想 AI 服務器單機可部署滿血大模型
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com