百度首席執(zhí)行官李彥宏發(fā)出警告,對于國內(nèi)大規(guī)模開發(fā)大型語言模型(LLM)的現(xiàn)象,他認為這將是一種資源浪費,企業(yè)應更專注于開發(fā)AI應用。
在深圳的一個產(chǎn)業(yè)論壇上,李彥宏表示,那些正在開發(fā)LLM的企業(yè)實際上還沒有找到可行的商業(yè)模式,這引發(fā)了他的擔憂。他觀察到,當前國內(nèi)各產(chǎn)業(yè)、企業(yè)甚至地方政府都在大規(guī)模購買硬件、囤積芯片,以構(gòu)建自己的LLM。然而,他認為LLM本身應該像PC操作系統(tǒng)一樣,是應用程序的基礎,最終開發(fā)者只會為幾個LLM開發(fā)原生應用。
"不斷地重復開發(fā)各種各樣的基礎大模型,我認為是對社會資源的一個極大浪費。" 李彥宏引述第三方數(shù)據(jù),指出在6月時,國內(nèi)已經(jīng)有79個LLM,到了10月增加到238個。這顯示出國內(nèi)存在大量的LLM,但基于這些模型開發(fā)的AI應用卻相對較少。
值得注意的是,百度自己推出的文心大模型正是一種LLM。該模型的目標是成為國內(nèi)的基礎模型,以吸引更多的開發(fā)者加入應用開發(fā)領域。百度先前還舉辦了文心杯創(chuàng)業(yè)大賽,向獲勝團隊提供百度的早期投資和產(chǎn)業(yè)資源。李彥宏在此前的表態(tài)中表示,將精力集中在LLM的競爭上是沒有意義的,應該更加關注應用的創(chuàng)新和發(fā)展。
總體而言,李彥宏的觀點強調(diào)了在人工智能領域,尤其是在大型語言模型方面,過度追求數(shù)量而非質(zhì)量可能導致資源浪費。他呼吁企業(yè)要有更清晰的商業(yè)規(guī)劃,更加關注如何將先進的模型應用于創(chuàng)新的人工智能解決方案中,從而更好地服務于社會和市場需求。
本文鏈接:http://www.www897cc.com/showinfo-27-31959-0.html百度CEO認為國內(nèi)業(yè)者紛紛開發(fā)LLM是浪費
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com