幾個月前有研究指出,人工智能(AI)可能發展出“價值體系”,甚至優先考慮自身利益。然而,麻省理工學院(MIT)近日發表的一篇論文對此提出了質疑,認為AI實際上并不具備連貫的價值觀。
MIT的研究團隊指出,確保AI系統按照人類期望的方式運行,即所謂的“對齊”,可能比預期更具挑戰性。研究顯示,當前的AI模型容易產生“幻覺”并進行模仿,導致其行為難以預測。
MIT博士生、論文的共同作者斯蒂芬?卡斯珀(Stephen Casper)在接受TechCrunch采訪時表示:“模型并不遵循許多關于穩定性、可外推性和可操控性的假設。”
研究團隊對Meta、谷歌、Mistral、OpenAI和Anthropic等公司的多個近期模型進行了分析,以評估這些模型是否表現出一致的“觀點”或價值觀。結果發現,這些模型在不同情境下的表現并不一致,甚至可能因提示措辭的不同而產生截然相反的反應。
卡斯珀總結道,這些模型本質上是模仿者,缺乏穩定和連貫的信念與偏好,更多時候只是在“捏造”內容并輸出隨意的結果。這表明,AI系統可能無法真正內化類似人類的價值觀和偏好。
本文鏈接:http://www.www897cc.com/showinfo-27-143337-0.html麻省理工研究表明:AI缺乏穩定價值觀
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 蔚來能源與濟寧高新控股達成合作,將在山東建設50座換電站
下一篇: 納芯微推出車規級電流檢測放大器,助力汽車高壓PWM系統
標簽: