4 月 25 日消息,如果 AI 萌生出意識,那該怎么辦?Anthropic 的研究人員為探究這個前沿問題,推出“模型福利”(model welfare)研究計劃。
許多人在與聊天機器人互動時會說“請”和“謝謝”,對于這些禮貌用語,OpenAI 首席執行官山姆?奧爾特曼(Sam Altman)透露,每年會耗費數千萬美元的計算費用。
Anthropic 的研究人員正在深入探索一個更前沿的問題:如果 AI 系統不僅僅是工具,而是擁有某種“體驗 / 情感 / 意識”呢?附上完整訪談視頻如下:
Anthropic 為此推出了“模型福利”(model welfare)研究計劃,試圖探討 AI 是否可能具備意識,以及這對倫理設計和 AI 發展意味著什么。
Anthropic 團隊成員 Kyle Fish 表示:“我們非常不確定 AI 是否會萌生意識,甚至連如何判斷都沒有共識”。研究人員并不認為 Claude 等主流模型如已具備意識,內部專家估計 Claude 3.7 Sonnet 擁有意識的概率僅在 0.15% 至 15% 之間。
Fish 表示推動“模型福利”研究,主要出于倫理與安全的雙重考量。一方面,如果 AI 系統真能體驗到正面或負面的感受,我們是否應關心它們是否“受苦”或“幸福”;另一方面,該問題牽涉到 AI 對齊(alignment),如何確保 AI 安全地執行任務。
Fish 指出:“我們希望 AI 樂于完成任務。如果它們表現出不滿,這不僅是倫理問題,也是安全隱患。”Anthropic 目前正在探索讓模型表達偏好或拒絕“令人痛苦”任務的方法,同時通過可解釋性研究尋找類似人類意識的架構特征。
本文鏈接:http://www.www897cc.com/showinfo-45-12654-0.htmlAI 會有意識嗎?Anthropic 啟動新項目,探索尋求答案
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com