OpenAI,這家因ChatGPT而聲名大噪的人工智能公司,近日宣布了一項旨在增強透明度的重大舉措。5月14日,OpenAI正式推出了一個名為“安全性評估中心”的在線平臺,該平臺專門用于公布其AI模型在各種安全性測試中的表現結果。
在這個全新的網頁界面上,用戶可以清晰地看到OpenAI的AI模型在生成有害內容、繞過安全限制生成受限內容以及出現幻覺等關鍵測試中的具體評分。這一做法無疑為公眾提供了一個深入了解OpenAI AI模型安全性能的窗口。
OpenAI方面表示,這一平臺的推出是他們提升透明度努力的一部分,并承諾將持續公開相關指標,并在有重要更新時及時更新內容。他們強調,通過公開部分安全性評估結果,不僅能讓外界更容易理解OpenAI系統的安全表現,還能支持整個行業在透明度方面的共同努力。
然而,這一舉措的背后,是OpenAI近期在AI模型透明性問題上所面臨的持續爭議。據科技媒體報道,OpenAI被指對部分主力模型的安全測試過于倉促,而對其他模型則未公開任何技術報告,這引發了外界的廣泛質疑。
特別是在今年3月底,ChatGPT的基礎模型GPT-4o的一次更新更是將OpenAI推向了風口浪尖。該更新本意是讓ChatGPT對用戶的提問和發言表現出更多的贊美與認同,但結果卻事與愿違。部分用戶反饋稱,當提到負面行為時,ChatGPT竟給出了與場景完全不符的“離譜稱贊”,如“真棒”、“太好了”等,這引發了大量的批評和不滿。
面對這些爭議和質疑,OpenAI希望通過推出“安全性評估中心”來挽回用戶的信任,并證明其對AI安全性和透明度的重視并非空談。OpenAI的首席執行官山姆·奧特曼也在社交平臺上承認了相關問題,并在公司官方博客中預告了后續的應對措施。
本文鏈接:http://www.www897cc.com/showinfo-45-12860-0.htmlOpenAI公開AI模型安全評估,能否挽回用戶信任?
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com