隨著AI科技的快速發展,其能源需求也日益增長。然而,Meta生成式人工智能工程總監Sergey Edunov在近日舉辦的數碼工作者論壇上表示,實際上,AI的能源需求并不像大家想象的那么高。他預測,只要再建設兩座核電廠,就足以滿足2024年日益增長的AI應用需求。
Edunov強調,AI模型的訓練和推論是兩個不同的過程。訓練是通過大量數據使模型具備推論能力,而推論則是使用已訓練好的模型進行實際任務。他指出,大型語言模型(LLMs)的訓練是近期關注的焦點,而一旦這些模型被訓練好,就可以反復執行推論任務。
他預計,2023年NVIDIA將出貨100萬至200萬個H100 GPU。每個H100 GPU的電力需求約為700瓦,加上數據中心和冷卻的電力消耗,每個GPU的電力需求約為1,000瓦。他估算,全球只要再建設兩個核子反應爐,就可以供應這些H100 GPU的電力需求。他補充說,從人類的角度來看,這樣的電力需求并不算過分。
Google的Kevin Tsai提出了其他減輕訓練壓力的方法,例如檢索增強生成(RAG),這是一種使LLM變得更聰明的方法,它利用組織內部的數據庫來微調基礎模型。他強調,社區可以共同開發實用的模型,并在多個場合應用,這對地球環境更為友好。
關于LLM的未來發展,Edunov認為可能會迎來爆炸性增長,但也可能開始趨緩。無論如何,未來3到4年內將會有答案,我們可以知道目前的技術能否實現人工通用智能(AGI)。NVIDIA生成式AI部門主任Nik Spirin預計,未來兩年內,企業將從中獲得巨大價值。
本文鏈接:http://www.www897cc.com/showinfo-27-34398-0.html核能助力AI發展,Meta:再建兩座電廠滿足AI需求
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
下一篇: Altman回歸,微軟松口氣