8 月 26 日消息,科技媒體 bleepingcomputer 昨日(8 月 25 日)發布博文,報道稱 Trail of Bits 研究人員開發出一種新型 AI 攻擊手法,將惡意提示詞隱藏在高分辨率圖片中,并在 AI 系統自動降采樣處理后顯現,再被大語言模型當作指令執行,可竊取用戶數據。
該方法由 Trail of Bits 的 Kikimora Morozova 與 Suha Sabi Hussain 提出,靈感來源于 2020 年德國布倫瑞克工業大學的圖像縮放攻擊理論。攻擊者先在高分辨率圖片中嵌入肉眼不可見的指令,再利用 AI 系統降采樣算法使其顯現。
援引博文介紹,AI 平臺為節省性能與成本,通常會自動降采樣(downscaled)用戶上傳的圖片,主流使用最近鄰(nearest neighbor)、雙線性(bilinear)、雙三次插值(bicubic interpolation)等圖像重采樣算法。
攻擊者可針對特定算法設計圖片,讓隱藏的色塊在降采樣后形成可識別文字。例如,Trail of Bits 的案例中,圖片深色區域會變紅,并在雙三次降采樣后顯現黑色文字。

一旦文字顯現,AI 模型會將其視為用戶輸入的一部分,會結合正常指令執行,從而引發數據泄露或其他風險操作。研究人員在 Gemini CLI 環境中,利用此漏洞在 Zapier MCP“trust=True”模式下,未經用戶確認便提取了 Google 日歷數據并發送至指定郵箱。
該方法已在多個平臺測試有效,包括 Google Gemini CLI、Vertex AI Studio(Gemini 后端)、Gemini 網頁與 API 接口、安卓手機上的 Google Assistant 及 Genspark。
研究團隊還發布了開源工具 Anamorpher(測試版),可生成針對不同降采樣方法的攻擊圖片,表明其潛在威脅范圍遠超已驗證的工具。
本文鏈接:http://www.www897cc.com/showinfo-45-27025-0.htmlAI“看圖”時的致命盲點,可竊取你的隱私數據
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com