5 月 22 日消息,麻省理工學院(MIT)最新研究表明,人工智能(AI)在理解“no”和“not”等否定詞方面仍存在明顯缺陷,在醫療等關鍵領域可能引發嚴重風險。
研究表明,AI 已快速發展,具備診斷疾病、創作詩歌甚至駕駛汽車等多項實用技能,但對“no”和“not”等否定詞,卻束手無策。
在博士生 Kumail Alhamoud 的帶領下,MIT 團隊聯合 OpenAI 和牛津大學,發現包括 ChatGPT、Gemini 和 Llama 在內的當前主流模型,在處理否定語句時,常傾向于默認肯定關聯,忽略否定語義。
研究報告認為,這種情況在醫療場景產生的潛在危害尤為明顯。例如,AI 可能誤解“no fracture”(無骨折)或“not enlarged”(未擴大),導致嚴重后果。
援引博文介紹,問題的根源并非數據不足,而是 AI 的訓練方式。斯坦福大學深度學習兼職教授 Kian Katanforoosh 指出,大多數語言模型依賴模式預測,而非邏輯推理。
這導致 AI 在面對“not good”(不好)時,仍可能因“good”一詞而誤判為正面情緒。專家強調,若不賦予模型邏輯推理能力,類似細微卻致命的錯誤將持續發生。
Lagrange Labs 首席研究工程師 Franklin Delehelle 也表示,AI 擅長模仿訓練數據中的模式,但缺乏創新或處理訓練數據之外情境的能力。
研究團隊通過合成否定數據(synthetic negation data)嘗試改進模型,取得初步成效,但細粒度的否定差異仍具挑戰性。
Katanforoosh 警告,AI 對否定的誤解不僅是一項技術缺陷,更可能在法律、醫療和人力資源等領域引發關鍵錯誤。他呼吁,解決之道不在于堆砌更多數據,而在于結合統計學習與結構化思維,提升模型的邏輯能力。
本文鏈接:http://www.www897cc.com/showinfo-45-13082-0.htmlMIT 新研究指出 AI 不懂“no”,邏輯推理缺陷導致否定詞成“盲區”
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: Anthropic 最強 AI 模型 Claude Sonnet 4 Opus 4 有望明日發布
下一篇: Mistral 發布編程專用開源 AI 模型 Devstral:240 億參數、單張 RTX 4090 顯卡可運行