ictimes消息,11月14日,NVIDIA宣布推出全新的NVIDIA HGX H200,為全球領(lǐng)先的AI計(jì)算平臺(tái)Hopper注入新活力。HGX H200平臺(tái)以NVIDIA Hopper架構(gòu)為基礎(chǔ),搭載了NVIDIA H200 Tensor Core GPU和卓越的顯存配置,可輕松應(yīng)對(duì)生成式AI與高性能計(jì)算工作負(fù)載的龐大數(shù)據(jù)需求。
NVIDIA H200 是首款采用 HBM3e 技術(shù)的 GPU,其強(qiáng)大的運(yùn)行速度和更大的顯存容量將進(jìn)一步推動(dòng)生成式 AI 與大語言模型的發(fā)展,同時(shí)強(qiáng)化了用于 HPC 工作負(fù)載的科學(xué)計(jì)算能力。HBM3e 的助力使得 NVIDIA H200 提供了高達(dá) 4.8 TB/秒的傳輸速度,141GB 的顯存容量相比上一代架構(gòu)的 NVIDIA A100 幾乎翻了一倍,帶寬也增加了 2.4 倍。這款創(chuàng)新性 GPU 將于 2024 年第二季度開始,由全球領(lǐng)先的服務(wù)器制造商和云服務(wù)提供商陸續(xù)提供搭載。
NVIDIA 超大規(guī)模和高性能計(jì)算副總裁 Ian Buck 指出:“要實(shí)現(xiàn)生成式 AI 和 HPC 應(yīng)用的智能化,必須借助大型、快速的 GPU 顯存來高速、高效地處理海量數(shù)據(jù)。
相較于前代架構(gòu),NVIDIA Hopper架構(gòu)實(shí)現(xiàn)了前所未有的性能提升。H100通過持續(xù)的軟件升級(jí),包括最近發(fā)布的NVIDIA TensorRT?-LLM等強(qiáng)大的開源庫,不斷提升其性能標(biāo)準(zhǔn)。而H200的推出將帶來更進(jìn)一步的性能飛躍,例如在700億參數(shù)的LLM——Llama 2上的推理速度比H100提高了近一倍。隨著未來軟件的持續(xù)升級(jí),H200有望實(shí)現(xiàn)更大的性能優(yōu)勢(shì)與提升。
NVIDIA H200 服務(wù)器主板將提供四路和八路兩種選擇,與 HGX H100 系統(tǒng)的硬件和軟件完全兼容。此外,它還可以支持今年 8 月發(fā)布的采用 HBM3e 的 NVIDIA GH200 Grace Hopper? 超級(jí)芯片。這些特性使得 H200 能夠適應(yīng)各類數(shù)據(jù)中心環(huán)境,包括本地、云、混合云和邊緣。
NVIDIA H200預(yù)計(jì)將于2024年第二季度開始進(jìn)入市場(chǎng),并計(jì)劃通過全球范圍內(nèi)的系統(tǒng)制造商和云服務(wù)提供商進(jìn)行廣泛推廣。
本文鏈接:http://www.www897cc.com/showinfo-27-26470-0.htmlNVIDIA推出新品,為全球領(lǐng)先AI產(chǎn)業(yè)注入新活力
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: SK海力士出貨量達(dá)到每年1億顆
下一篇: SK海力士向Vivo提供芯片