6 月 12 日消息,長期以來,人們常常把大語言模型提供的看似合理但錯漏百出的答案稱作“AI 幻覺(AI hallucinations)”。然而,來自英國格拉斯哥大學的三名哲學研究人員近期提出了不同的看法 ——“AI 幻覺”這樣的描述并不準確。
當地時間 6 月 8 日,《倫理與信息技術》雜志刊登了三名研究人員的論文。這篇論文指出,聊天機器人“胡編亂造”回答的行為不應被稱為“幻覺”,用“胡說八道(bullshitting)”一詞來描述才更準確。
研究人員指出,學習過心理學或使用過迷幻類藥物的人都知道,“幻覺”通常被定義為看到、感知到不存在的東西。而在 AI 領域,“幻覺”顯然是一種隱喻,大語言模型根本看不到、感知不到任何東西。AI 并非經歷“幻覺”,而是在復制訓練數據中的人類語言模式,并不關心事實的準確性。
機器并非試圖傳達它們相信或感知到的東西,它們的不準確性并不是因為誤解或幻覺。正如我們所指出的,它們根本不是在試圖傳遞信息,它們是在胡說八道。
研究人員認為,AI 模型沒有信念、意圖或理解力,它們的不準確性不是因為誤解或幻覺,而是因為它們被設計用來創建看起來、聽起來都正確的文本,沒有任何“內在機制”來確保事實的準確性。
曾多次報道過“AI 幻覺”有關現象。例如最近的“谷歌搜索推薦用戶往披薩里加膠水”,以及馬斯克的 Grok“誤認為”自己是 OpenAI 的產品等等。
劍橋詞典(Cambridge Dictionary)去年宣布,2023 年的年度詞匯為“hallucinate”(產生幻覺),原意為似乎看到、聽到、感覺到或聞到“一些不存在的東西”,通常是指用戶在不良健康或者服用藥物狀態下產生的幻覺。伴隨著 AI 的崛起,hallucinate 延伸為 AI 產生幻覺,生成錯誤的信息。
本文鏈接:http://www.www897cc.com/showinfo-45-4599-0.html英國格拉斯哥大學哲學研究人員談“AI 幻覺”:用“胡說八道”來形容更準確
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 五糧液濃香酒:勞動節送禮的精致藝術