12 月 8 日消息,據 Meta 官方新聞稿,Meta 昨日推出一款名為 Purple Llama 的 AI 檢測套件,號稱提供了一系列工具,可幫助開發者檢測自家AI安全性,并“負責任地部署生成式AI 模型與應用程序”。
獲悉,Purple Llama 套件目前提供“CyberSec Eval”評估工具、Llama Guard“輸入輸出安全分類器”,Meta 聲稱,之后會有更多的工具加入這一套件。
Meta 介紹稱,Purple Llama 套件旨在規范自家 Llama 語言模型,也能夠作用于其它友商的 AI 模型,這一套件的名稱由來,是基于安全領域的“紫隊概念”。
Meta 聲稱,紫隊是“攻擊紅隊和防御藍隊”的結合,而 Purple Llama 套件的作用,就是在評估和緩解AI模型的潛在威脅,“兼顧攻擊和防御策略”。
具體而言,Purple Llama 套件目前能夠量化大模型在網絡安全風險的指標,評估可能存在的代碼漏洞,并為模型的安全性提供見解,此外還能檢查并過濾模型的輸入和輸出內容,防止黑客“越獄”相關模型。
Meta 表示,未來該公司將持續檢測AI模型的安全性,除了持續完善 Purple Llama 套件外,Meta 還將與微軟、AMD、亞馬遜、谷歌、英特爾、英偉達等公司合作,計劃將 Purple Llama 評估套件整合進行業模型評估基準中。
本文鏈接:http://www.www897cc.com/showinfo-45-2859-0.htmlMeta 推出 Purple Llama 檢測套件,可評估 AI 模型安全水準
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com