8 月 30 日消息,人工智能公司 OpenAI 和 Anthropic 已經同意允許美國政府在這些公司發布重大新的人工智能模型之前訪問這些模型,以幫助提高它們的安全性。
美國人工智能安全研究所(US AI Safety Institute)周四宣布,這兩家公司已經與該研究所簽署了諒解備忘錄,承諾在模型公開發布之前和之后提供訪問權限。美國政府表示,這一舉措將有助于他們共同評估安全風險并緩解潛在問題。該機構表示,將與英國的對應機構合作,就安全改進提供反饋。
OpenAI 首席戰略官 Jason Kwon 對合作表示支持:
“我們非常支持美國 AI 安全研究所的使命,并期待一起合作,制定 AI 模型的安全最佳實踐和標準。我們相信,該研究所在確保美國在負責任開發 AI 方面的領導地位上扮演著關鍵角色。我們期望通過與研究所的合作,能為全球提供一個可以借鑒的框架。”
Anthropic 公司也表示,建立有效測試 AI 模型的能力非常重要。該公司的聯合創始人兼政策負責人 Jack Clark 說:
“確保 AI 安全可靠對于讓這項技術帶來積極影響是至關重要的。通過這樣的測試和合作,可以更好地發現和減少 AI 帶來的風險,推動負責任的 AI 發展。我們為能夠參與這項重要工作感到自豪,并希望為 AI 的安全性和可信度設立新的標準。”
在聯邦和州立法機構正在考慮如何對這項技術設置哪些限制而不扼殺創新的同時,共享人工智能模型訪問權是一項重要舉措。注意到,周三,加利福尼亞州立法者通過了《前沿人工智能模型安全創新法案》(SB 1047),要求加利福尼亞州的人工智能公司在訓練先進的基礎模型之前采取特定的安全措施。這引起了包括 OpenAI 和 Anthropic 在內的人工智能公司的反對,他們警告稱這可能會傷害較小的開源開發人員,盡管該法案已經進行了修改,并且仍在等待加利福尼亞州州長加文?紐瑟姆的簽署。
與此同時,美國白宮一直在努力從主要公司那里獲得關于人工智能安全措施的自愿承諾。幾家領先的 AI 公司已經做出非約束性承諾,投資于網絡安全和歧視研究,并致力于對人工智能生成的內容進行水印標記。
美國人工智能安全研究所所長伊麗莎白?凱利在一份聲明中表示,這些新的協議只是“開始,但它們是我們努力幫助負責任地管理人工智能未來的一個重要里程碑”。
本文鏈接:http://www.www897cc.com/showinfo-45-6598-0.htmlOpenAI 和 Anthropic 同意推出新模型前交給美國政府評估安全
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com