近日,英國互聯(lián)網(wǎng)安全領(lǐng)域的多位倡導(dǎo)者聯(lián)名致信國家通訊監(jiān)管機構(gòu)Ofcom,要求對社交媒體巨頭meta在風險評估流程中過度依賴人工智能(AI)的做法加以限制。這一呼吁的背景是,meta計劃將風險評估工作的九成自動化,此舉引發(fā)了對于用戶安全,特別是未成年用戶保護的深切憂慮。
根據(jù)英國的《在線安全法》,社交媒體平臺有責任全面評估服務(wù)可能帶來的風險,并據(jù)此制定有效的緩解措施。這一風險評估機制被視為保護用戶,特別是兒童用戶安全的關(guān)鍵法律要求。然而,包括Molly Rose基金會、兒童慈善組織NSPCC以及互聯(lián)網(wǎng)觀察基金會在內(nèi)的多個機構(gòu)認為,meta將風險評估主要交由AI處理的做法是一個“令人擔憂的倒退”。
在致Ofcom首席執(zhí)行官梅拉妮·道斯的信函中,倡導(dǎo)者們明確表達了對AI主導(dǎo)風險評估的擔憂,并強烈建議監(jiān)管機構(gòu)明確指出,若風險評估過度或完全依賴自動化手段,則不應(yīng)被視為“適當且充分”。他們還呼吁Ofcom質(zhì)疑meta在風險評估過程中降低標準的假設(shè)。Ofcom方面表示,將認真審視這封信函所表達的關(guān)切,并在適當時候作出回應(yīng)。
面對這一質(zhì)疑,meta公司迅速作出回應(yīng),強調(diào)其在安全領(lǐng)域的堅定承諾。meta發(fā)言人指出,公司并未使用AI做出風險決策,而是開發(fā)了一款工具,以幫助團隊識別并遵守相關(guān)法律和政策要求。該發(fā)言人還強調(diào),AI技術(shù)是在人工監(jiān)督下使用的,旨在提升有害內(nèi)容的管理能力,且技術(shù)進步已顯著改善了安全結(jié)果。
Molly Rose基金會在組織此次聯(lián)名行動時,引用了美國廣播公司NPR的報道。據(jù)報道,meta最近的算法更新和新安全功能將主要由AI系統(tǒng)批準,而不再經(jīng)過人工審查。一位不愿透露姓名的前meta高管表示,這種變化雖然能加速Facebook、Instagram和WhatsApp上應(yīng)用更新和新功能的推出,但也會帶來“更大的風險”,因為在新產(chǎn)品發(fā)布前,潛在問題很可能被忽視。
NPR的報道還指出,meta正考慮將青少年風險和虛假信息傳播等敏感領(lǐng)域的審查工作自動化。這一消息進一步加劇了公眾對于meta過度依賴AI可能帶來的安全風險的擔憂。
本文鏈接:http://www.www897cc.com/showinfo-45-13548-0.html英國互聯(lián)網(wǎng)安全組織擔憂:Meta人工智能風險評估影響用戶安全?
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com