4 月 16 日消息,本周一,OpenAI 推出了新的 AI 模型 GPT-4.1 系列。該公司表示,該模型在某些測試中,尤其是編程基準(zhǔn)測試方面,表現(xiàn)優(yōu)于其現(xiàn)有的一些模型。然而,與 OpenAI 以往的模型發(fā)布不同,GPT-4.1 并未附帶通常伴隨模型發(fā)布而公布的安全報告(即系統(tǒng)卡)。
截至周二上午,OpenAI 仍未發(fā)布 GPT-4.1 的安全報告,且似乎并無此計劃。OpenAI 發(fā)言人 Shaokyi Amdo 在向 TechCrunch 發(fā)表的聲明中表示:“GPT-4.1 并非前沿模型,因此不會為其發(fā)布單獨(dú)的系統(tǒng)卡?!?span style="display:none">w8k28資訊網(wǎng)——每日最新資訊28at.com
通常情況下,人工智能實(shí)驗(yàn)室會發(fā)布安全報告,展示其內(nèi)部以及與第三方合作伙伴開展的測試類型,以評估特定模型的安全性。這些報告有時會揭示一些不那么令人滿意的信息,例如某個模型可能會欺騙人類或具有危險的說服力??傮w而言,人工智能界普遍認(rèn)為這些報告是人工智能實(shí)驗(yàn)室支持獨(dú)立研究和紅隊(duì)測試的誠意之舉。
然而,在過去的幾個月里,一些領(lǐng)先的人工智能實(shí)驗(yàn)室似乎降低了其報告標(biāo)準(zhǔn),引發(fā)了安全研究人員的強(qiáng)烈反對。例如,谷歌在發(fā)布安全報告方面行動遲緩,而其他一些實(shí)驗(yàn)室則發(fā)布了缺乏以往細(xì)節(jié)的報告。
OpenAI 近期的表現(xiàn)也并不出色。去年 12 月,該公司因發(fā)布了一份包含與實(shí)際部署生產(chǎn)版本不同的模型基準(zhǔn)結(jié)果的安全報告而受到批評。上個月,OpenAI 在發(fā)布一款名為“深度研究”的模型后數(shù)周,才發(fā)布該模型的系統(tǒng)卡。
前 OpenAI 安全研究員 Steven Adler 指出,安全報告并非由任何法律或法規(guī)強(qiáng)制要求,而是自愿發(fā)布的。然而,OpenAI 曾多次向各國政府承諾,會增加其模型的透明度。2023 年,在英國人工智能安全峰會前夕,OpenAI 在一篇博客文章中稱系統(tǒng)卡是其問責(zé)制方法的“關(guān)鍵部分”。而在 2025 年巴黎人工智能行動峰會之前,OpenAI 表示系統(tǒng)卡可以為模型的風(fēng)險提供有價值的見解。
Adler 表示:“系統(tǒng)卡是人工智能行業(yè)用于透明度和描述安全測試內(nèi)容的主要工具。如今的透明度規(guī)范和承諾最終是自愿的,因此是否以及何時為某個模型發(fā)布系統(tǒng)卡,取決于每家人工智能公司自己的決定。”
注意到,此次 GPT-4.1 未發(fā)布系統(tǒng)卡的背景是,OpenAI 的現(xiàn)員工和前員工對其安全實(shí)踐提出了擔(dān)憂。上周,Adler 與其他 11 名前 OpenAI 員工在埃隆?馬斯克起訴 OpenAI 的案件中提交了一份擬議的法庭之友簡報,認(rèn)為營利性質(zhì)的 OpenAI 可能會削減安全工作的投入?!督鹑跁r報》最近報道稱,由于競爭壓力,OpenAI已經(jīng)減少了分配給安全測試人員的時間和資源。
盡管 GPT-4.1 并非 OpenAI 旗下性能最高的 AI 模型,但在效率和延遲方面取得了顯著進(jìn)步。Secure AI Project 的聯(lián)合創(chuàng)始人兼政策分析師 Thomas Woodside 稱,性能的提升使得安全報告變得更加重要。他認(rèn)為,模型越復(fù)雜,其可能帶來的風(fēng)險就越高。
目前,許多人工智能實(shí)驗(yàn)室一直在抵制將安全報告要求納入法律的努力。例如,OpenAI 曾反對加州的 SB 1047 法案,該法案要求許多人工智能開發(fā)商對其公開發(fā)布的模型進(jìn)行審計并發(fā)布安全評估。
本文鏈接:http://www.www897cc.com/showinfo-45-12351-0.htmlOpenAI 的 GPT - 4.1 無安全報告,AI 安全透明度再遭質(zhì)疑
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com