6 月 1 日消息,據美國國家公共廣播電臺(NPR)報道,社交媒體巨頭 Meta 正在計劃將其產品潛在風險評估的任務從人工審核轉向更多依賴人工智能(AI),以加快審核流程。內部文件顯示,Meta 的目標是讓高達 90% 的風險評估工作由 AI 完成,甚至包括涉及青少年風險和“誠信”領域的評估,后者涵蓋暴力內容、虛假信息等多個方面。然而,與 NPR 交流的現任和前任 Meta 員工警告稱,AI 可能會忽視一些人工團隊能夠識別的嚴重風險。
長期以來,Meta 旗下包括 Instagram 和 WhatsApp 在內的平臺的更新及新功能,在面向公眾推出之前都會經過人工審核。但據報道,過去兩個月,Meta 大幅增加了對 AI 的使用。如今,產品團隊需要填寫一份關于其產品的調查問卷,并提交給 AI 系統進行審核。該系統通常會提供“即時決策”,指出其識別出的風險領域。產品團隊隨后需要解決 AI 提出的要求,才能發布產品。
一位 Meta 前高管表示,減少審核力度意味著“你正在創造更高的風險。產品變更的負面外部效應在開始造成問題之前更不可能被阻止”。Meta 在一份聲明中回應稱,公司仍會利用“人類專業知識”來評估“新穎且復雜的問題”,而將“低風險決策”交給 AI 處理。
注意到,Meta 幾天前公布了其最新季度誠信報告,這是該公司今年早些時候改變內容審核和事實核查政策后的首份報告。報告顯示,在政策調整后,被刪除的內容數量如預期般有所下降,但霸凌和騷擾行為、以及暴力和血腥內容卻略有上升。
本文鏈接:http://www.www897cc.com/showinfo-45-13330-0.html消息稱 Meta 計劃讓 AI 接管 90% 產品風險評估,取代人工審核
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com