日韩成人免费在线_国产成人一二_精品国产免费人成电影在线观..._日本一区二区三区久久久久久久久不

當(dāng)前位置:首頁 > 元宇宙 > AI

新研究揭示 DeepSeek o3 弱點(diǎn):頻繁切換思路放棄正確方向,最短答案往往就是對(duì)的

來源: 責(zé)編: 時(shí)間:2025-02-05 15:44:00 59觀看
導(dǎo)讀 DeepSeek 和 o1 / o3 一類推理大模型持續(xù)帶來震撼之際,有人開始研究他們的弱點(diǎn)了。最新研究揭示:在遇到高難度問題時(shí),推理大模型可能像“三心二意的學(xué)生”一樣頻繁切換解題思路,卻因缺乏深入探索而失敗 —— 這種

DeepSeek 和 o1 / o3 一類推理大模型持續(xù)帶來震撼之際,有人開始研究他們的弱點(diǎn)了。C0k28資訊網(wǎng)——每日最新資訊28at.com

最新研究揭示:在遇到高難度問題時(shí),推理大模型可能像“三心二意的學(xué)生”一樣頻繁切換解題思路,卻因缺乏深入探索而失敗 —— 這種現(xiàn)象被研究者稱為 Underthinking(欠思考)。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

研究團(tuán)隊(duì)來自騰訊 AI 實(shí)驗(yàn)室、蘇州大學(xué)和上海交通大學(xué),主要研究對(duì)象是開源的 DeepSeek-R1 和 Qwen QwQ 系列模型。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

通過分析 AI 的錯(cuò)誤答案,他們發(fā)現(xiàn)當(dāng)前的推理大模型經(jīng)常在思考早期就走上了正確的路線,但傾向于“淺嘗輒止”,很快開始探索別的思路,導(dǎo)致后續(xù)生成的數(shù)千個(gè) tokens 對(duì)解題毫無貢獻(xiàn)。C0k28資訊網(wǎng)——每日最新資訊28at.com

這種“無效努力”不僅浪費(fèi)計(jì)算資源,還顯著降低了答案的正確率。C0k28資訊網(wǎng)——每日最新資訊28at.com

“三心二意”是罪魁禍?zhǔn)?p>這一現(xiàn)象在解決數(shù)學(xué)競賽題等更為復(fù)雜任務(wù)時(shí)尤為明顯。C0k28資訊網(wǎng)——每日最新資訊28at.com

為了系統(tǒng)分析,團(tuán)隊(duì)在三個(gè)具有挑戰(zhàn)性的測試集 MATH500、GPQA Diamond 和 AIME2024 上,對(duì)類 o1 模型 QwQ-32B-Preview、DeepSeek-R1-671B 等進(jìn)行了實(shí)驗(yàn)。C0k28資訊網(wǎng)——每日最新資訊28at.com

下圖比較了正確和錯(cuò)誤回答中的 token 使用量和思維切換次數(shù)。平均來看,類 o1 模型在錯(cuò)誤回答中比正確回答多消耗了 225% 的 token,原因是思維切換頻率增加了 418%。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

為了深入分析這一現(xiàn)象,研究團(tuán)隊(duì)開發(fā)了一套評(píng)估框架,用于判斷被放棄的推理路徑是否實(shí)際上足以推導(dǎo)出正確答案。C0k28資訊網(wǎng)——每日最新資訊28at.com

結(jié)果觀察到,許多模型在回答開頭階段的思路是正確的,但并未繼續(xù)深入完成推理。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

超過 70% 的錯(cuò)誤回答中至少包含一個(gè)正確的思路。此外,在超過 50% 的錯(cuò)誤回答中,有 10% 以上的思路是正確的。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

如下圖所示的例子,例如,Thought 1 通過識(shí)別給定方程類似于以 (0,0) 和 (20,11) 為中心的橢圓方程,啟動(dòng)了正確的解釋。將兩個(gè)表達(dá)式設(shè)為相等,是尋找滿足這兩個(gè)方程的公共點(diǎn) (x, y) 的有效方法。C0k28資訊網(wǎng)——每日最新資訊28at.com

然而,模型并未專注于深入探索這一合理思路,使用進(jìn)一步的代數(shù)操作和優(yōu)化技術(shù)進(jìn)行分析,而是頻繁切換思路,額外消耗了約 7270 個(gè) token,卻依然未能得出正確答案。C0k28資訊網(wǎng)——每日最新資訊28at.com

最終,它得出一個(gè)缺乏擴(kuò)展 COT 過程支持的猜測答案。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

基于這些觀察,研究人員提出了一個(gè)用于量化 Underthinking 程度的指標(biāo)(Underthinking Metric)。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

這個(gè)指標(biāo)通過測量錯(cuò)誤答案中的 token 使用效率來評(píng)估推理效率,計(jì)算從回答開始到第一個(gè)正確思路出現(xiàn)所需的 token 數(shù)量與總 token 數(shù)量的比值。C0k28資訊網(wǎng)——每日最新資訊28at.com

實(shí)驗(yàn)結(jié)果表明,所有測試的類 o1 模型都存在顯著的思維不足問題。模型的準(zhǔn)確率與思維不足之間的關(guān)系在不同數(shù)據(jù)集上表現(xiàn)各異。C0k28資訊網(wǎng)——每日最新資訊28at.com

在 MATH500-Hard 和 GPQA Diamond 數(shù)據(jù)集上,性能更優(yōu)的 DeepSeek-R1-671B 模型在取得更高準(zhǔn)確率的同時(shí),其 UT 得分也更高,表明錯(cuò)誤回答中存在更多思維不足。C0k28資訊網(wǎng)——每日最新資訊28at.com

這意味著,盡管模型整體能力更強(qiáng),但在不確定時(shí)可能生成更長但效率較低的推理過程,可能是因?yàn)槟P吞剿髁硕鄠€(gè)錯(cuò)誤的推理路徑,卻未能有效收斂到正確解答。C0k28資訊網(wǎng)——每日最新資訊28at.com

相反,在 AIME2024 測試集中,DeepSeek-R1-671B 模型不僅取得了更高的準(zhǔn)確率,還表現(xiàn)出較低的 UT 得分,反映出較少的思維不足和更高的 token 效率。C0k28資訊網(wǎng)——每日最新資訊28at.com

這表明模型在該任務(wù)中,即使未得出正確答案,其推理過程依然保持專注和高效,團(tuán)隊(duì)表示這可能是因?yàn)槟P团c AIME2024 所要求的問題類型和推理過程更好地對(duì)齊。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

理解思維不足現(xiàn)象對(duì)于開發(fā)能夠提供正確答案并具備有效推理過程的模型至關(guān)重要。C0k28資訊網(wǎng)——每日最新資訊28at.com

如何讓 AI 學(xué)會(huì)“一心一意”

如何讓模型像優(yōu)秀學(xué)生一樣“沉下心來鉆研”?C0k28資訊網(wǎng)——每日最新資訊28at.com

研究者借鑒了人類考試策略,提出了一種“思路切換懲罰機(jī)制”(Thought Switching Penalty,TIP)。其原理類似于考試時(shí)給自己定規(guī)矩:“先專注當(dāng)前方法,至少嘗試 10 分鐘再換思路”。C0k28資訊網(wǎng)——每日最新資訊28at.com

技術(shù)細(xì)節(jié)上,TIP 會(huì)對(duì)觸發(fā)思路切換的關(guān)鍵詞施加懲罰,降低這些詞在解碼過程中的生成概率,迫使模型在當(dāng)前路徑上探索更久。C0k28資訊網(wǎng)——每日最新資訊28at.com

例如,當(dāng)模型開始寫“Alternatively, we can consider…”時(shí),TIP 會(huì)通過調(diào)整參數(shù)(懲罰強(qiáng)度 α 和持續(xù)時(shí)間 β),抑制這種過早的切換傾向。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

實(shí)驗(yàn)結(jié)果顯示,加入 TIP 能讓模型在數(shù)學(xué)測試上的準(zhǔn)確率上升,同時(shí) UT Score 下降,說明既減少了無效切換,又提高了答案質(zhì)量。C0k28資訊網(wǎng)——每日最新資訊28at.com

例如在 AIME2024 數(shù)學(xué)競賽測試上,加入 TIP 的 QwQ-32B-Preview 模型準(zhǔn)確率從 41.7% 提升至 45.8%,同時(shí) UT Score 從 72.4 降至 68.2。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

并且這種“無痛升級(jí)”無需重新訓(xùn)練模型,僅需調(diào)整解碼策略,展現(xiàn)了其實(shí)用價(jià)值。C0k28資訊網(wǎng)——每日最新資訊28at.com

One More Thing

UC Berkeley 教授 Alex Dimakis 幾乎同時(shí)分享了類似的觀察,C0k28資訊網(wǎng)——每日最新資訊28at.com

對(duì)于 DeepSeek-R1 和所有推理模型,錯(cuò)誤的答案更長,而正確的答案要短得多。C0k28資訊網(wǎng)——每日最新資訊28at.com

基于此,他們提出一個(gè)簡單的解決辦法,稱為“簡潔解碼”(Laconic decoding)。C0k28資訊網(wǎng)——每日最新資訊28at.com

并行運(yùn)行 5 次模型,從答案中選擇 tokens 最少的。C0k28資訊網(wǎng)——每日最新資訊28at.com

初步實(shí)驗(yàn)結(jié)果表示,簡潔解碼在 AIME2024 測試上能提高 6%-7% 的準(zhǔn)確率,比 Consensus Decoding 更好也更快。C0k28資訊網(wǎng)——每日最新資訊28at.com

C0k28資訊網(wǎng)——每日最新資訊28at.com

論文地址:https://arxiv.org/ abs / 2501.18585

參考鏈接:C0k28資訊網(wǎng)——每日最新資訊28at.com

[1]https://x.com/tuzhaopeng/status/1885179412163027406C0k28資訊網(wǎng)——每日最新資訊28at.com

[2]https://x.com/AlexGDimakis/status/1885447830120362099C0k28資訊網(wǎng)——每日最新資訊28at.com

本文來自微信公眾號(hào):量子位(ID:QbitAI),作者:夢(mèng)晨西風(fēng)C0k28資訊網(wǎng)——每日最新資訊28at.com

本文鏈接:http://www.www897cc.com/showinfo-45-10450-0.html新研究揭示 DeepSeek o3 弱點(diǎn):頻繁切換思路放棄正確方向,最短答案往往就是對(duì)的

聲明:本網(wǎng)頁內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com

上一篇: DeepSeek 威脅下,OpenAI 稱考慮開源舊 AI 模型

下一篇: 小鵬汽車放大招!5年0息0首付購車,最高貼息5.7萬引關(guān)注

標(biāo)簽:
  • 熱門焦點(diǎn)
Top 主站蜘蛛池模板: 当阳市| 栾城县| 永昌县| 团风县| 古田县| 沭阳县| 江达县| 抚松县| 博客| 中山市| 济南市| 普兰县| 大理市| 云安县| 无棣县| 衡阳县| 屯昌县| 乐业县| 南漳县| 肇源县| 大荔县| 渑池县| 保山市| 永年县| 庄浪县| 尚义县| 额济纳旗| 四平市| 康乐县| 上犹县| 巢湖市| 日喀则市| 墨竹工卡县| 辽宁省| 乐安县| 鄢陵县| 南丹县| 白水县| 山西省| 常宁市| 盱眙县|