在2024年美國加州圣荷西的GTC大會(huì)上,GPU巨頭英偉達(dá)宣布推出號(hào)稱目前強(qiáng)大的AI芯片GB200,并計(jì)劃于2024年晚期開始正式出貨。
這款芯片采用了英偉達(dá)的新Blackwell架構(gòu),公司創(chuàng)始人兼CEO黃仁勛表示,盡管兩年前推出的Hopper架構(gòu)GPU表現(xiàn)出色,但英偉達(dá)仍需要一款更強(qiáng)大的GPU來滿足市場(chǎng)需求。
英偉達(dá)遵循每?jī)赡旮乱淮蜧PU架構(gòu)的策略,以顯著提升AI芯片的性能。繼2022年發(fā)布的基于Hopper架構(gòu)的H100 AI芯片之后,英偉達(dá)繼續(xù)引領(lǐng)全球AI市場(chǎng)。
現(xiàn)在,搭載Blackwell架構(gòu)的新AI芯片性能將更加強(qiáng)大,尤其是在處理AI任務(wù)方面,該架構(gòu)得名于數(shù)學(xué)家David Harold Blackwell。
黃仁勛透露,Blackwell架構(gòu)的AI運(yùn)算性能在FP8和NEWFP6上可達(dá)到20 petaflops,是前一代Hopper架構(gòu)的8 petaflops性能的2.5倍。
在NEWFP4上,性能更是達(dá)到了40 petaflops,是Hopper架構(gòu)的5倍。根據(jù)不同設(shè)備配置的內(nèi)存容量和帶寬,實(shí)際性能可能還會(huì)更高。這種額外的處理能力將使人工智能企業(yè)能夠訓(xùn)練更大、更復(fù)雜的模型。
采用臺(tái)積電4納米制程技術(shù)的Blackwell架構(gòu)GPU體積龐大,集成了兩個(gè)獨(dú)立制造的裸晶(Die),共有2,080億個(gè)晶體管,并通過NVLink 5.0接口連接。
英偉達(dá)使用每秒10 TB傳輸速度的NVLink 5.0來連接兩塊裸晶,官方稱該接口為NV-HBI。Blackwell complex的NVLink 5.0接口提供的帶寬高達(dá)每秒1.8 TB,是前代Hopper架構(gòu)GPU上NVLink 4.0接口速度的兩倍。
黃仁勛進(jìn)一步指出,新推出的GB200 AI芯片包含兩個(gè)Blackwell GPU和一個(gè)基于Arm架構(gòu)的Grace CPU。其推理模型性能比H100提升了30倍,同時(shí)成本和能耗降低到原來的1/25。
針對(duì)有大型需求的客戶,英偉達(dá)提供完整的服務(wù)器產(chǎn)品,如GB200 NVL72服務(wù)器,配備了36個(gè)CPU和72個(gè)Blackwell架構(gòu)GPU,以及一套完整的水冷散熱方案,可實(shí)現(xiàn)高達(dá)720 petaflops的AI訓(xùn)練性能或1,440 petaflops的推理性能。服務(wù)器內(nèi)部使用的電纜總長度接近2英里,包含5,000條獨(dú)立電纜。
目前,亞馬遜的AWS已計(jì)劃采購由2萬片GB200芯片組成的服務(wù)器集群,能夠部署擁有27兆參數(shù)的模型。除了亞馬遜的AWS之外,DELL、Alphabet、Meta、微軟、OpenAI、Oracle和TESLA等也成為了Blackwell系列芯片的采用者。
本文鏈接:http://www.www897cc.com/showinfo-24-78226-0.html英偉達(dá)強(qiáng)AI芯片GB200成了香餑餑:微軟亞馬遜搶著要
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com