在2024年美國加州圣荷西的GTC大會上,GPU巨頭英偉達宣布推出號稱目前強大的AI芯片GB200,并計劃于2024年晚期開始正式出貨。
這款芯片采用了英偉達的新Blackwell架構(gòu),公司創(chuàng)始人兼CEO黃仁勛表示,盡管兩年前推出的Hopper架構(gòu)GPU表現(xiàn)出色,但英偉達仍需要一款更強大的GPU來滿足市場需求。
英偉達遵循每兩年更新一次GPU架構(gòu)的策略,以顯著提升AI芯片的性能。繼2022年發(fā)布的基于Hopper架構(gòu)的H100 AI芯片之后,英偉達繼續(xù)引領全球AI市場。
現(xiàn)在,搭載Blackwell架構(gòu)的新AI芯片性能將更加強大,尤其是在處理AI任務方面,該架構(gòu)得名于數(shù)學家David Harold Blackwell。
黃仁勛透露,Blackwell架構(gòu)的AI運算性能在FP8和NEWFP6上可達到20 petaflops,是前一代Hopper架構(gòu)的8 petaflops性能的2.5倍。
在NEWFP4上,性能更是達到了40 petaflops,是Hopper架構(gòu)的5倍。根據(jù)不同設備配置的內(nèi)存容量和帶寬,實際性能可能還會更高。這種額外的處理能力將使人工智能企業(yè)能夠訓練更大、更復雜的模型。
采用臺積電4納米制程技術的Blackwell架構(gòu)GPU體積龐大,集成了兩個獨立制造的裸晶(Die),共有2,080億個晶體管,并通過NVLink 5.0接口連接。
英偉達使用每秒10 TB傳輸速度的NVLink 5.0來連接兩塊裸晶,官方稱該接口為NV-HBI。Blackwell complex的NVLink 5.0接口提供的帶寬高達每秒1.8 TB,是前代Hopper架構(gòu)GPU上NVLink 4.0接口速度的兩倍。
黃仁勛進一步指出,新推出的GB200 AI芯片包含兩個Blackwell GPU和一個基于Arm架構(gòu)的Grace CPU。其推理模型性能比H100提升了30倍,同時成本和能耗降低到原來的1/25。
針對有大型需求的客戶,英偉達提供完整的服務器產(chǎn)品,如GB200 NVL72服務器,配備了36個CPU和72個Blackwell架構(gòu)GPU,以及一套完整的水冷散熱方案,可實現(xiàn)高達720 petaflops的AI訓練性能或1,440 petaflops的推理性能。服務器內(nèi)部使用的電纜總長度接近2英里,包含5,000條獨立電纜。
目前,亞馬遜的AWS已計劃采購由2萬片GB200芯片組成的服務器集群,能夠部署擁有27兆參數(shù)的模型。除了亞馬遜的AWS之外,DELL、Alphabet、Meta、微軟、OpenAI、Oracle和TESLA等也成為了Blackwell系列芯片的采用者。
本文鏈接:http://www.www897cc.com/showinfo-24-77872-0.html英偉達強AI芯片GB200成了香餑餑:微軟亞馬遜搶著要
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com