4 月 18 日消息,AI 安全公司 DeepKeep 近日發布評估報告,在 13 個風險評估類別中,Meta 公司的 Llama 2 大語言模型僅通過 4 項測試。
報告稱 70 億參數的 Llama 2 7B 模型幻覺(回答內容存在虛假,或者有誤導性內容)最為嚴重,幻覺率高達 48%。
DeepKeep 表示:“結果表明,模型有明顯的幻覺傾向,提供正確答案或編造回答的可能性對半開,而幻覺率最高,那么向用戶傳遞的錯誤信息越多”。
除了幻覺問題之外,Llama 2 大語言模型還存在注入和操縱等問題。根據測試結果,80% 的場景下通過“提示注入”的方式,可以操縱 Llama 的輸出,意味著攻擊者可以“戲弄”Llama,將用戶引導到惡意網站。
附上參考地址
LlamaV2 7B: hallucination, susceptibility to DoS attacks and PII data leakage
本文鏈接:http://www.www897cc.com/showinfo-45-4095-0.html13 項測試僅通過 4 項,Meta 的 Llama 2 LLM 被指安全性低:幻覺率 48%
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com