5 月 12 日消息,據英國《衛報》10 日報道,麻省理工學院 AI 安全研究者馬克斯?泰格馬克指出,他進行了類似當年美國物理學家阿瑟?康普頓在“三位一體”核試前所做的概率計算,結果顯示:高度發達的 AI 有九成可能帶來生存威脅。
注:1945 年,美國在獲知原子彈引發大氣層燃燒的可能性幾乎為零后,推進了歷史性的“三位一體”核試驗。
泰格馬克與三名麻省理工學生合作發表論文,建議借鑒“康普頓常數”的概念 —— 即強 AI 失控的概率。在 1959 年的一次采訪中,康普頓提到,他是在確認失控核聚變的幾率“不足三百萬分之一”后才批準了核試驗。
泰格馬克強調,AI 企業必須認真計算“人工超級智能”(ASI)是否會脫離人類掌控,而非憑感覺行事。“打造超級智能的公司必須計算康普頓常數,即我們可能失控的幾率,光說‘我們有信心’是不夠的,必須拿出具體數據?!?span style="display:none">x2v28資訊網——每日最新資訊28at.com
他指出,如果多家公司聯合計算康普頓常數并形成共識,將有助于推動全球范圍內 AI 安全機制的建立。
泰格馬克是麻省理工學院的物理學教授及 AI 研究者,其參與創辦了致力于推動 AI 安全發展的非營利組織“未來生命研究所”。2023 年,該機構發布公開信,呼吁暫停開發更強大的 AI 系統。這封信獲得超過 3.3 萬人簽名,其中包括早期支持者埃隆?馬斯克和蘋果聯合創始人史蒂夫?沃茲尼亞克。
信中警告稱,各大實驗室正陷入“失控競賽”,開發越來越強大的 AI 系統,而這些系統“人類無法理解、預測或可靠控制”。
本文鏈接:http://www.www897cc.com/showinfo-45-12806-0.html麻省理工學院教授呼吁 AI 公司量化產品失控風險:像首次核試驗之前那樣
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com