在AI加速芯片市場的白熱化競爭中,AMD近期震撼發(fā)布了Instinct MI350系列加速器,包括MI350X與高性能液冷版MI355X,這一舉動標志著AMD正式向行業(yè)領頭羊NVIDIA發(fā)起正面挑戰(zhàn),尤其是在AI訓練和推理領域。
與之前的MI300系列相比,MI350系列不僅在架構層面實現(xiàn)了迭代升級,更明確了其市場定位,專注于滿足AI訓練和推理的嚴苛需求。兩款新品均采用了先進的3nm工藝,并配備了高達288GB的HBM3E高帶寬內(nèi)存,延續(xù)了AMD一貫的高規(guī)格配置策略。
作為旗艦型號的MI355X,功耗高達1400W,專為高密度計算環(huán)境設計,搭配液冷系統(tǒng),確保了卓越的性能輸出。在實際性能對比測試中,MI355X在主流大模型推理任務中展現(xiàn)出相對于MI300X三倍以上的性能提升,這一跨代式的性能飛躍,無疑彰顯了架構層面的重大優(yōu)化。
在與NVIDIA Blackwell平臺的較量中,AMD雖然尚未占據(jù)絕對的市場主導地位,但憑借相似的計算性能、更大的顯存配置以及更低的預期成本,在特定客戶需求下展現(xiàn)出了強勁的競爭力。AMD此次不僅強調(diào)單卡性能,更重視整體系統(tǒng)架構的優(yōu)化以及機架規(guī)模的部署能力。
MI350系列在規(guī)格設計上兼容UBB 8 GPU模塊,這意味著它們可以無縫集成到現(xiàn)有的高性能AI計算平臺中,包括NVIDIA HGX類系統(tǒng),這種平臺級的兼容性大大降低了部署壁壘,為AMD打入更多數(shù)據(jù)中心和云廠商體系鋪平了道路。
AMD此次并未過分強調(diào)峰值性能的領先性,而是將重點放在了綜合系統(tǒng)效能、機架級資源配置以及開放標準支持上。通過超級以太網(wǎng)聯(lián)盟(UEC)和UALink等互聯(lián)協(xié)議,MI350系列支持64至128顆GPU的橫向擴展,能夠在單個機架中構建起高達36TB的共享顯存資源池,展示了一個具有延展性的AI基礎設施組件。
MI350系列的發(fā)布,不僅是AMD技術更新的一次展示,更是其面向AI產(chǎn)業(yè)趨勢調(diào)整戰(zhàn)略重心的體現(xiàn)。從架構設計到市場策略,AMD正在逐步淡化過去以高性能計算為主的產(chǎn)品定位,將更多資源投入到AI加速領域,尤其是大模型的訓練和推理。
在技術路線上,MI350系列延續(xù)了MI300時代的模塊化封裝與堆疊設計思路,但在芯粒數(shù)量、互聯(lián)方式、緩存架構以及張量計算能力等方面均實現(xiàn)了優(yōu)化。特別是在FP4與FP6浮點計算性能上的提升,成為AMD本代產(chǎn)品的核心技術亮點,這些精度的粒度更適配推理場景下對功耗與計算資源的綜合要求。
MI350系列面向AI訓練和推理兩個核心場景的定位更加清晰。在訓練方面,得益于更大的HBM帶寬與GPU間互聯(lián)性能,MI355X在處理超大參數(shù)模型時具有顯著優(yōu)勢;而在推理環(huán)節(jié),F(xiàn)P4的高密度計算能力可以大幅提升每瓦性能,進而降低整體部署成本。
AMD通過精確的市場定位與資源匹配,走出了一條與NVIDIA不同、更具工程實用性的平衡路徑。AMD在此次發(fā)布會中強調(diào)了“基于價值的銷售”模式,即以系統(tǒng)總效能與總成本的均衡來爭取客戶,而非單純追求性能參數(shù)的絕對領先。這一策略背后,是對AI基礎設施建設日益復雜化、資源分布多樣化趨勢的深刻理解。
與NVIDIA更封閉的生態(tài)構建策略不同,AMD選擇了開放標準作為其生態(tài)擴展的支點。通過支持開放式互聯(lián)標準、構建可替換模塊、兼容主流平臺等方式,AMD增強了產(chǎn)品的可適配性與可持續(xù)性,降低了用戶的技術鎖定風險。在未來AI基礎設施構建過程中,市場需要的不僅是性能強大的GPU,更是一個可持續(xù)、靈活且經(jīng)濟高效的系統(tǒng)解決方案。
本文鏈接:http://www.www897cc.com/showinfo-45-13778-0.htmlAMD Instinct MI350:架構革新,能否在AI算力市場掀起波瀾?
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com