11月13日,英偉達正式宣布,在目前最強AI(人工智能)芯片H100的基礎上進行一次大升級,發布新一代H200芯片。H200擁有141GB的內存、4.8TB/秒的帶寬,并將與H100相互兼容,在推理速度上幾乎達到了H100的兩倍。H200預計將于明年二季度開始交付,英偉達尚未公布其價格。
H200引人矚目的地方在于,它是首款搭載HBM3E的GPU,這種速度更快、容量更大的存儲器將加速生成式人工智能(generative AI)和大型語言模型(LLM),同時提升科學運算的高效能運算工作負載。
相較于A100,H200的存儲器速度達每秒4.8 TB,存儲容量幾乎翻倍,帶寬增加了2.4倍。
NVIDIA宣布,全球服務器制造商和云端服務供應商將在2024年第2季開始出貨搭載H200的系統。
H200將提供包含四路和八路配置的HGX H200服務器主機板,與HGX 100系統兼容。此外,H200還可與NVIDIA GH200 Grace Hopper超級芯片搭配使用,該芯片于2023年8月推出,采用HBM3E。
HGX H200采用NVIDIA NVLink和NVSwitch高速互連技術,可為各種應用工作負載提供高效能,包括對超過1750億個參數的最大模型進行大型語言模型訓練和推斷。
英偉達還透露,下一代Blackwell B100 GPU也將在2024年推出,性能已經“望不到頭”。
本文鏈接:http://www.www897cc.com/showinfo-27-25944-0.htmlNVIDIA推出HGX H200,效能大幅提升
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 臺積電預計明年CoWoS將增產20%