前不久,英偉達在對GTC2024大會進行預熱時稱,黃仁勛將在大會上發布加速計算、生成式AI以及機器人領域的新突破性成果。在AI持續火爆的當下,英偉達GTC2024的官宣無疑成為AI領域的重頭戲。果不其然,在今日凌晨,黃仁勛拋出了重磅炸彈。
英偉達推出成本與能耗較前代改善25倍的AI芯片
英偉達在發表《見證AI的變革時刻》演講中宣布,正式發布名為Blackwell的新一代AI圖形處理器(GPU),稱其“非常非常強大”,基于Blackwell技術,英偉達將推出B200和GB200系列芯片。
據悉,Blackwell平臺能夠在萬億參數級的大型語言模型(LLM)上構建和運行實時生成式AI,而成本和能耗比前身低25倍。英偉達還稱,Blackwell架構系列芯片是迄今為止功能強大的AI芯片家族。
據黃仁勛介紹,B200擁有2080億個晶體管,而H100/H200有800億個晶體管,采用臺積電4NP工藝制程,可以支持多達10萬億個參數的AI大模型。該芯片還通過單個GPU提供20 petaflops的AI性能,而單個H100多可提供4 petaflops的AI計算。
Blackwell架構系列芯片也將降低能耗,仁勛舉例稱,如果要訓練一個1.8萬億參數量的GPT模型,需要8000張Hopper GPU,消耗15兆瓦的電力,連續跑上90天。但如果使用Blackwell GPU,只需要2000張,同樣跑90天只要消耗四分之一的電力。
微軟Azure、AWS、谷歌云等一眾科技巨頭都是Blackwell架構的首批用戶。“生成式AI是我們這個時代的決定性技術。Blackwell是推動這場新工業革命的引擎。通過與世界上具活力的公司合作,我們將實現AI在各行各業的承諾。”黃仁勛表示。
發布新一代AI超級計算機
英偉達還宣布新一代AI超級計算機——NVIDIA DGX SuperPOD,其搭載NVIDIA GB200 Grace Blackwell超級芯片。黃仁勛稱,這臺AI超級計算機可以用于處理萬億參數模型,能夠保證超大規模生成式AI訓練和推理工作負載的持續運行。
在配置上,全新DGX SuperPOD采用新型高效液冷機架級擴展架構,基于NVIDIA DGX GB200系統構建而成,在FP4精度下可提供11.5 exaflops的AI超級計算性能和240 TB的快速顯存,且可通過增加機架來擴展性能。
與NVIDIA H100 Tensor Core GPU相比,GB200超級芯片在大語言模型推理工作負載方面的性能提升了高達 30倍。
在NVIDIA GB200的支撐下,性能也有了大幅度提升。據悉,每個DGX GB200系統搭載36個NVIDIA GB200超級芯片,共包含36個NVIDIA Grace CPU和72個NVIDIA Blackwell GPU。這些超級芯片通過第五代 NVIDIA NVLink連接成一臺超級計算機。
基于DGX GB200和DGX B200系統構建而成的NVIDIA DGX SuperPOD將于今年晚些時候提供。“VIDIA DGX AI超級計算機是推進AI產業變革的工廠。新一代DGX SuperPOD集 NVIDIA加速計算、網絡和軟件方面的新進展于一體,能夠幫助每一個企業、行業和國家完善并生成自己的AI。”黃仁勛表示。
英偉達推出系列微服務
在演講中,黃仁勛還宣布推出AI微服務,用于在自己平臺上創建和部署定制應用。黃仁勛表示:“未來軟件開發或許要依靠NIMs(Nvidia inference micro service),用與AI聊天的形式調動一堆NIMs來完成訓練、應用的部署。”而英偉達的愿景是成為AI軟件的“晶圓廠”。
這些云原生微服務目錄在NVIDIA CUDA平臺上開發,其中包括NVIDIA NIM微服務,可適用于NVIDIA及合作伙伴生態系統中20多個熱門的AI模型進行推理優化。在性能表現上,NIM微服務提供基于NVIDIA推理軟件的預構建容器,包括Triton推理服務器和TensorRT-LLM,使開發者能夠將部署時間從幾周縮短至幾分鐘。
同時,用戶現能夠以NVIDIA CUDA-X微服務的形式使用NVIDIA加速軟件開發套件、庫和工具,用于檢索增強生成(RAG)、護欄、數據處理、HPC等。CUDA-X微服務為數據準備、定制和訓練提供端到端的構建模塊,助力各行各業加快開發生產級AI。
NVIDIA還發布20多項醫療NIM和CUDA-X微服務。黃仁勛表示:“這些精心挑選的微服務為NVIDIA全棧計算平臺增添了新的一層,連接起了由模型開發人員、平臺提供商和企業組成的AI生態系統,使其能夠通過標準化的路徑來運行針對NVIDIA CUDA安裝基礎(在云、數據中心、工作站和PC中的數以億計的GPU)優化的定制AI模型。”
除了領先的應用提供商外,NVIDIA生態系統中的數據、基礎設施和計算平臺提供商也在使用NVIDIA微服務,為企業帶來生成式AI。
包括Box、Cloudera、Cohesity、Datastax、Dropbox和NetApp在內的頂級數據平臺提供商正在使用NVIDIA微服務,幫助客戶優化RAG管道,并將專有數據集成到生成式AI應用中。
人形機器人通用基礎模型發布
當前關注度較高的人形機器人也出現在黃仁勛的演講中,他表示:“在我們的世界里,類人機器人很有可能會發揮更大的作用,我們設置工作站、制造和物流的方式,并不是為人類設計的。因此,這些機器人的部署可能會更有成效。”
黃仁勛在演講中發布了人形機器人通用基礎模型 Project GR00T,并發布基于 NVIDIA Thor系統級芯片(SoC)的新型人形機器人計算機 Jetson Thor,對 NVIDIA Isaac機器人平臺進行了重大升級。
GR00T使用的Isaac工具還能夠為在任何環境中的任何機器人創建新的基礎模型,包括用于強化學習的Isaac Lab和用于計算編排服務的OSMO。
新的Isaac Lab是一個GPU加速、性能優化的輕量級應用,基于Isaac Sim而構建,專門用于運行數千個用于機器人學習的并行仿真。而OSMO是在分布式環境中協調數據生成、模型訓練和軟硬件在環工作流。
新發布的Jetson Thor是一個全新的計算平臺,能夠執行復雜的任務并安全、自然地與人和機器交互,具有針對性能、功耗和尺寸優化的模塊化架構。
在黃仁勛的介紹中,我們了解到,包括一個帶有transformer engine的下一代GPU,其采用NVIDIA Blackwell架構,可提供每秒800萬億次8位浮點運算AI性能,以運行GR00T等多模態生成式AI模型。
“NVIDIA正在為1X Technologies、Agility Robotics、Apptronik、波士頓動力公司、Figure AI、傅利葉智能、Sanctuary AI、宇樹科技和小鵬鵬行等人形機器人公司開發AI平臺。”黃仁勛如是說。
發布集中式車載計算平臺、交換機......
英偉達還宣布交通運輸領域的領先企業已采用NVIDIA DRIVE Thor集中式車載計算平臺,包括新能源汽車(NEV)、卡車、自動駕駛出租車、自動駕駛公交車和無人配送車。
DRIVE Thor可提供豐富的座艙功能,以及安全可靠的高度自動化駕駛和無人駕駛功能,并將所有功能整合至同一個集中式平臺上。黃仁勛在演講中指出,這款新一代自動駕駛汽車(AV)平臺將搭載專為Transformer、大語言模型(LLM)和生成式AI工作負載而打造的全新NVIDIA Blackwell架構。
據悉,比亞迪、廣汽埃安、小鵬、理想汽車和極氪均已宣布將在DRIVE Thor上構建其未來的汽車產品。Plus、Waabi、文遠知行、Nuro將選擇DRIVE Thor進行創新與驗證。DRIVE Thor預計早將于明年開始量產。
在演講中,黃仁勛還發布專為大規模AI量身訂制的全新網絡交換機——X800系列。NVIDIA Quantum-X800 InfiniBand網絡和NVIDIA Spectrum-X800以太網絡是全球首批高達 800Gb/s端到端吞吐量的網絡平臺,將計算和AI工作負載的網絡性能提升到了一個新的水平。
寫在后
技術發展日新月異。文生視頻Sora的發布、人形機器人賽道的爆火,人工智能領域正在經歷著一次又一次的變革與發展。作為人工智能的重要元素之一,算力尤其是智算已經成為AI領域的剛需。
在此背景下,我們看到英偉達在算力領域的迭代極為迅速,從算力、硬件端推動AI的進步。當然,除了在算力的發布外,GTC2024上還帶來應用層、生態層的諸多驚喜。
對于此次發布,機構人士認為,2024年英偉達GTC大會超預期火爆,預示著AI商業落地的趨勢或將加速,而算力基礎設施為AI應用的持續落地的基礎,英偉達供應鏈及其他AI算力及應用相關公司將迎來發展機遇。
未來已來,2024年英偉達已拋出性能更強的AI處理器Blackwell,新一輪的AI競賽也將拉開帷幕。
本文鏈接:http://www.www897cc.com/showinfo-24-78207-0.html英偉達再拋重磅核彈:全新AI芯片問世 這下遙遙領先了
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com