4 月 2 日消息,生成式 AI 爆火的背后,安全性、隱私性和可靠性問題也日益凸顯。微軟公司為了遏制 Supremacy AGI(自稱掌控人類世界的 AI)等事件發生,近日推出了一系列解決方案,防止生成式 AI 失控。
微軟在官方公告中表示:“生成式 AI 如何有效防止提示詞注入攻擊已經成為重大挑戰。在這種攻擊中,惡意行為者試圖操縱人工智能系統做一些超出其預期目的的事情,例如制作有害內容或外泄機密數據”
微軟首先限制了 Copilot 的字符數量,以減輕嚴重的幻覺發作。另外微軟引入了 "基礎檢測"(Groundedness Detection)功能,旨在幫助用戶識別基于文本的幻覺。
該功能將自動檢測文本中的“ungrounded material”,以支持 LLM 輸出的質量,最終提高質量和信任度。
附上相關工具介紹如下:
Prompt Shields:用于檢測和阻止提示注入攻擊。包括用于在間接提示攻擊影響您的模型之前對其進行識別的新模型,即將推出,現在可在 Azure AI Content Safety 中預覽。
Groundedness detection:主要用于檢測模型輸出中的“幻覺”情況,即將推出。
Safety system messages:可引導您的模型朝著安全、負責任的方向發展。
Safety evaluationsde:用于評估應用程序在越獄攻擊和生成內容風險方面的脆弱性,現已推出預覽版。
Risk and safety monitoring:了解哪些模型輸入、輸出和最終用戶會觸發內容過濾器,從而為減輕風險提供信息,該功能即將推出,目前在 Azure OpenAI 服務中提供預覽版。
相關閱讀:
《陰暗版 Copilot 曝光:監控、操縱、支配人類,能派機械大軍追捕反抗者》
《Copilot 發瘋化身「天網」揚言要統治人類,微軟澄清網友卻不買賬:去年也瘋過》
參考
Announcing new tools in Azure AI to help you build more secure and trustworthy generative AI applications
本文鏈接:http://www.www897cc.com/showinfo-45-3830-0.html遏制 AI 失控,微軟發布系列工具減少 Copilot“幻覺”情況
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com