快科技9月10日消息,除了宣布專門用于大規模上下文處理的Rubin CPX,NVIDIA還同時披露了新一代AI服務器,規模和性能實現了大幅度的躍升。
“Vera Rubin NVL144”定位于AI訓練與推理用途的旗艦產品,應該每個機架配備36顆Vera CPU、144顆Rubin GPU,同時搭配1.4PB/s超高帶寬的HBM4(容量沒說),以及多達75TB存儲。
算力性能在NVFP4數據精度下可高達3.5 EFlops,也就是每秒350億億次,對比GB300 NVL72提升3.3倍!
“Vera Rubin NVL144 CPX”又加入了72顆Rubin CPX,組成了單個機架144顆GPU、36顆CPU的龐大規模。
同時,它還有1.7PB/s帶寬的HBM4內存、100TB高速存儲,以及Quantum-X800 InfiniBand或者Spectrum-X以太網,搭配ConnectX-9 NIC網卡。
整機算力在NVFP4下達到了驚人的8 EFlops,即每秒800億億次,對比GB300 NVL72提升了7.5倍。
如果有需要,可以將兩臺服務器組合在一起,配置和算力直接翻倍。
NVIDIA號稱,有了這樣的AI服務器,每投入1億美元,就可以換來50億美元的收獲。
NVIDIA新公布的路線圖顯示,Rubin GPU和相關系統將在2026年底開始登場,2027年推出升級版Rubin Ultra,2028年則是全新的再下一代Feyman GPU,繼續搭配Vera CPU。
本文鏈接:http://www.www897cc.com/showinfo-24-181481-0.htmlNVIDIA宣布下代AI服務器:288顆GPU+36顆CPU 800億億次每秒
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com