2 月 12 日消息,非營利人工智能研究機構 Epoch AI 發布了一項針對 ChatGPT 能耗的新研究,指出其能耗水平可能遠低于此前的普遍認知。
此前,一個被廣泛引用的數據顯示,ChatGPT 回答一個問題需要消耗約 3 瓦時的電量,這一數字是谷歌搜索的 10 倍。然而,Epoch AI 的研究人員認為這一數據被高估了。通過分析 OpenAI 最新的默認模型 GPT-4o,Epoch AI 發現,ChatGPT 的平均查詢能耗約為 0.3 瓦時,低于許多家用電器的能耗水平。
Epoch AI 的數據分析師約書亞?尤(Joshua You)在接受 TechCrunch 采訪時表示:“與使用普通電器、調節室內溫度或駕駛汽車相比,ChatGPT 的能耗并不算什么。”
注意到,隨著 AI 行業的快速發展,其能耗問題和對環境的影響成為公眾關注的焦點。就在上周,超過 100 個組織聯合發表公開信,呼吁 AI 行業和監管機構確保新的 AI 數據中心不會過度消耗自然資源,避免依賴不可再生能源。
約書亞?尤指出,他之所以開展這項分析,是因為此前的研究存在過時的問題。例如,得出 3 瓦時能耗估計的研究報告假設 OpenAI 使用的是較老、效率較低的芯片來運行其模型。尤表示:“我看到很多公眾討論都正確地認識到 AI 在未來幾年將消耗大量能源,但并沒有準確描述當前 AI 的能耗情況。此外,我的一些同事注意到,每次查詢耗電 3 瓦時的估算數據是基于較舊的研究,而且從初步計算來看,這一數字似乎過高。”
盡管 Epoch AI 的 0.3 瓦時數據是一個估算值,因為 OpenAI 尚未公布足夠的細節來進行精確計算,但這一研究仍然具有重要意義。此外,該分析并未考慮 ChatGPT 的圖像生成或輸入處理等額外功能所消耗的電量。尤也承認,帶有長文件附件等“長輸入”的 ChatGPT 查詢可能會比普通問題消耗更多的電量。
不過,尤預計,ChatGPT 的基礎能耗未來可能會增加。他指出:“AI 將變得更加先進,訓練這些 AI 可能需要更多的能源,未來的 AI 可能會被更頻繁地使用,并且處理更復雜、更多的任務,而不是像現在人們使用 ChatGPT 這樣。”
此外,OpenAI 和整個 AI 行業的關注點也在向推理模型轉移。與 GPT-4o 等能夠近乎即時響應的模型不同,推理模型需要花費數秒甚至數分鐘來“思考”答案,這一過程會消耗更多的計算能力,從而導致更高的能耗。
尤表示:“推理模型將越來越多地承擔舊模型無法完成的任務,并為此生成更多的數據,這都需要更多的數據中心支持。”盡管 OpenAI 已經開始推出更節能的推理模型,如 o3-mini,但目前來看,這些效率提升似乎不太可能抵消推理模型“思考”過程以及全球 AI 使用量增加所帶來的額外能耗需求。
本文鏈接:http://www.www897cc.com/showinfo-45-10693-0.html新研究:ChatGPT 能耗或遠低于此前預估,單次查詢僅約 0.3 瓦時
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com