快科技6月16日消息,近日,韓國高級科學技術院(KAIST)、TB級互聯與封裝實驗室(TERA)共同展望了未來十年HBM高帶寬內存、AI GPU加速卡的發展形勢,瘋狂得有些難以置信。
HBM技術目前已落地先進的是HBM3E,NV B300系列、AMD MI350系列都做到了大288GB。
即將到來的是BHM4,NVIDIA Rubin系列預計做到大384GB,AMD MI400系列更是準備沖擊432GB。
后續標準尚未制定,但是預計HBM5的容量可達400-500GB,HBM6能夠做到1536-1920GB(1.5-1.9TB),HBM7更是可達5120-6144GB,也就是大約4.2-6TB!
NVIDIA Rubin預計明年推出,芯片面積728平方毫米,芯片功耗800W,雙芯整合封裝,中介層面積近2200平方毫米,搭配8顆HBM4,帶寬高32TB/s,整卡功耗預計2200W。
目前的AMD MI350系列風冷1000W、水冷1400W,NVIDIA B300也做到了1400W。
再往后,代號Feyman的再下一代NVIDIA AI GPU預計2029年到來,估計核心面積750平方毫米左右,芯片功耗就有900W左右,四芯整合封裝,中介層面積約4800平方毫米,搭配8顆HBM5,帶寬48TB/s,整卡功耗4400W。
之后的代號都沒公布,以下數據也都是純粹的想象:
Feyman之后下一代2032年推出,單芯片面積縮小到700平方毫米,但是功耗突破1000W,而且通過四芯整合封裝,中介層超過6000平方毫米,搭配多達16顆HBM6,帶寬256TB/s,整卡鞏固好近6000W。
再往后的2035年,又是新一代,單芯片面積繼續縮小到600平方毫米,但是功耗達1200W,而且首次八芯片整合封裝,中介層超過9000平方毫米,搭配32顆HBM7,帶寬1TB/s,功耗15000W!
這么走下去真的好嗎?每個數據中心旁邊就得搭配一座核電站了!
本文鏈接:http://www.www897cc.com/showinfo-24-159980-0.htmlAI GPU加速卡功耗失控!10年內超過15000W
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com