蘋果公司的科研團隊最近公布了一項關(guān)于大型語言模型(LLMs)的深入研究,對傳統(tǒng)認知中的LLMs能力提出了深刻質(zhì)疑。這項研究揭示,即便LLMs融入了復(fù)雜的自我反思機制,它們在高復(fù)雜度問題面前仍顯得力不從心,無法展現(xiàn)出普遍的推理能力。
研究發(fā)現(xiàn),LLMs在處理問題時的表現(xiàn)存在一個明顯的分界點。面對低復(fù)雜度的問題,LLMs的表現(xiàn)優(yōu)于邏輯推理模型(LRMs)。然而,當(dāng)問題復(fù)雜度上升到中等水平時,LRMs開始占據(jù)優(yōu)勢。而在高復(fù)雜度的問題面前,兩者都顯得無能為力。這一發(fā)現(xiàn)表明,LLMs在處理復(fù)雜邏輯時的局限性不容忽視。
不僅如此,LLMs在執(zhí)行精確計算時也顯得捉襟見肘。甚至在處理一些簡單問題時,LLMs也會出現(xiàn)“過度思考”的現(xiàn)象,導(dǎo)致效率低下。這一發(fā)現(xiàn)進一步加劇了人們對LLMs能力的擔(dān)憂。
紐約大學(xué)的Gary Marcus教授對此表示,LLMs并不能完全替代那些經(jīng)過精心設(shè)計的傳統(tǒng)算法。他認為,通往通用人工智能(AGI)的道路遠比想象中更為艱難。蘋果的這項研究無疑為這一觀點提供了有力的支持。
研究還指出,LLMs在解決結(jié)構(gòu)性問題時的表現(xiàn)同樣不盡如人意。例如,在解決漢諾塔問題時,LLMs的表現(xiàn)令人失望。即便直接給出標(biāo)準(zhǔn)算法,LLMs也難以正確執(zhí)行。這一發(fā)現(xiàn)再次證明了LLMs在特定問題上的不可靠性。
盡管LLMs在某些領(lǐng)域確實展現(xiàn)出了其獨特的優(yōu)勢,但這項研究提醒我們,它們并非解決所有問題的萬能鑰匙。在未來的研究和應(yīng)用中,我們需要更加理性地看待LLMs的能力,避免過度依賴和夸大其效果。
本文鏈接:http://www.www897cc.com/showinfo-45-13586-0.html蘋果新研究:大語言模型能力遭質(zhì)疑,通往通用AI之路遙不可及?
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com