4 月 12 日消息,金融時報(FT)昨日(4 月 11 日)發(fā)布博文,報道稱 OpenAI 大幅壓縮最新大型語言模型(LLM)安全測試時間,此前需要數(shù)月時間,而最新 o3 模型僅有幾天時間。
競爭驅(qū)動,安全讓步
據(jù)八位知情人士透露,OpenAI 大幅壓縮模型的安全測試時間,留給員工和第三方測試團隊“評估”(evaluations,即測試模型風(fēng)險和性能)時間僅有數(shù)天時間,而此前通常會耗時數(shù)月時間。
援引博文介紹,OpenAI 面臨來自 Meta、Google 及 xAI 等對手的激烈競爭,需快速推出新模型以維持市場優(yōu)勢。o3 模型計劃最早下周發(fā)布,留給測試者安全檢查時間不到一周,而此前 GPT-4 的測試期長達六個月。
一位測試過 GPT-4 的人士透露,過去安全測試更徹底,某些危險能力在測試兩個月后才被發(fā)現(xiàn),而如今競爭壓力迫使公司追求速度,忽視潛在風(fēng)險。
測試不足,監(jiān)管缺位
全球目前尚未統(tǒng)一 AI 安全測試標準,但歐盟《AI 法案》將于今年晚些時候上線,要求企業(yè)對其最強大的模型進行安全測試。
AI Futures Project 負責(zé)人 Daniel Kokotajlo 表示,由于缺乏強制監(jiān)管,企業(yè)不會主動披露模型的危險能力,競爭壓力進一步加劇了風(fēng)險。
OpenAI 曾承諾構(gòu)建定制模型版本,測試其潛在濫用風(fēng)險,例如是否能協(xié)助制造更具傳染性的生物病毒。
這種測試需投入大量資源,包括聘請外部專家、創(chuàng)建特定數(shù)據(jù)集并進行“微調(diào)”(fine-tuning)。但 OpenAI 僅對較老舊的模型進行有限微調(diào),最新模型如 o1 和 o3-mini 未全面測試。前 OpenAI 安全研究員 Steven Adler 批評,若不兌現(xiàn)測試承諾,公眾有權(quán)知情。
安全測試未覆蓋最終模型
另一問題在于,安全測試通常基于早期“檢查點”(checkpoints),而非最終發(fā)布模型。一位前 OpenAI 技術(shù)人員表示,發(fā)布未經(jīng)測試的更新模型是“不良做法”,而 OpenAI 辯稱,其檢查點與最終模型“基本一致”,并通過自動化測試提高效率,確保安全。
本文鏈接:http://www.www897cc.com/showinfo-45-12245-0.html數(shù)月 → 幾天:OpenAI 被曝縮水模型安全測試,AI 競賽埋下隱患
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 字節(jié)跳動推出 VAPO 框架:突破 AI 推理極限,Qwen2.5-32B 提分 12 倍超 Deepseek-R1
下一篇: 谷歌 Gemini AI 新功能 Circle Screen 曝光:圈選截屏特定區(qū)域,實現(xiàn)精準搜索