3 月 13 日消息,據(jù)外媒 Ars Technica 報(bào)道,Anthropic 首席執(zhí)行官達(dá)里奧?阿莫代伊(Dario Amodei)周一提出了一個(gè)令人吃驚的觀點(diǎn),暗示未來(lái)的高級(jí) AI 模型可能會(huì)被賦予一種“按鈕”,讓它們能夠在遇到不愉快的任務(wù)時(shí)選擇退出。
阿莫代伊在采訪中表示:“這是另一個(gè)讓我看起來(lái)像是瘋了的話題。我認(rèn)為我們至少應(yīng)該考慮一個(gè)問(wèn)題:如果我們正在構(gòu)建這些系統(tǒng),它們能夠像人類一樣執(zhí)行各種任務(wù),并且似乎擁有許多人類的認(rèn)知能力。如果它像鴨子一樣叫、像鴨子一樣走,也許它就是鴨子。”
阿莫代伊的言論是回應(yīng)數(shù)據(jù)科學(xué)家卡門(mén)?多明格斯(Carmem Domingues)提出的一個(gè)問(wèn)題,多明格斯詢問(wèn)為何 Anthropic 公司在 2024 年底聘請(qǐng)了 AI 福利研究員凱爾?費(fèi)什(Kyle Fish),讓他研究未來(lái)的 AI 模型是否可能具備感知能力,或是否應(yīng)該在未來(lái)獲得道德上的考慮和保護(hù)。
從報(bào)道中獲悉,費(fèi)什目前正研究 AI 是否能擁有感知能力,以及是否值得享有道德保護(hù)這一具有爭(zhēng)議的話題。
阿莫代伊解釋說(shuō):“我們正在考慮的一項(xiàng)可能的做法是,當(dāng)我們將模型部署到實(shí)際環(huán)境中時(shí),給它們一個(gè)按鈕,上面寫(xiě)著‘我放棄這項(xiàng)工作’,這樣模型就可以按下這個(gè)按鈕。”
其表示,這只是一個(gè)非常簡(jiǎn)單的偏好框架,假設(shè)模型真的具備自主意識(shí),并且非常討厭這份工作,那么它就可以按下這個(gè)按鈕。“如果你發(fā)現(xiàn)模型經(jīng)常按下這個(gè)按鈕,做一些非常不愉快的事情,也許你應(yīng)該關(guān)注一下 —— 這并不意味著你完全相信,但至少應(yīng)該留意。”
本文鏈接:http://www.www897cc.com/showinfo-45-11524-0.htmlAnthropic CEO 阿莫代伊:未來(lái) AI 或有自我決定權(quán),可拒絕“不爽”的任務(wù)
聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: 應(yīng)對(duì)醫(yī)護(hù)人員超負(fù)荷工作壓力,印度最大規(guī)模醫(yī)院 Apollo 引入 AI 系統(tǒng)
下一篇: Salesforce CEO 炮轟微軟 AI 戰(zhàn)略:把 ChatGPT 包裝成 Copilot,令客戶失望