隨著人工智能(AI)技術的飛速發展,它正逐漸滲透到我們的日常生活與工作中,從搜集資料、制作PPT到修改論文,AI的應用場景愈發廣泛。然而,人們在享受AI帶來的便利的同時,也開始意識到其潛在的風險。
大學生小薛在準備課堂作業PPT時,就遇到了AI“一本正經說瞎話”的情況。她不確定一句詩中的某個字,于是向AI助手求證,結果AI給出了錯誤的出處,且在被質疑后,依然堅持錯誤的回答,最終小薛發現,AI提供的詩句出處與實際完全不符。
在自媒體公司工作的雅雅也險些因AI提供錯誤信息而“捅了大婁子”。她在更新一篇關于“造紙史”的公眾號文章時,使用了AI搜集的資料,其中一段關于西安博物院藏唐代“開元戶籍冊”殘片的信息,在發布前核查時,她發現網上根本檢索不到相關信息,甚至無法確認該文物是否真實存在,所涉及的數據更是無從考證。
類似的案例在社交媒體上屢見不鮮。有網友發現AI編造了關于郭沫若甲骨文研究的考釋,也有網友發現AI在回答關于《水滸傳》不同版本譯者的問題時張冠李戴,更有網友指出AI連法條都能胡編亂造,編得有模有樣。
AI不僅在學術和工作領域“不靠譜”,在日常生活中的應用也需謹慎。一位B站UP主在嘗試用AI推薦購買汕頭特產時,發現AI推薦的店面統統不存在。
專家指出,AI之所以會“胡說八道”,主要是因為其技術原理的固有特點以及訓練數據的局限性。數據過時、數據偏見或錯誤、知識盲區等問題,都可能導致AI生成錯誤的內容。AI生成的內容很大程度上受提問方式的影響,容易呈現片面真實,刻意回避某類信息。
針對這一問題,專家建議,普通用戶在使用AI時,應優化提問技巧,交叉驗證與人工審核,使用專業工具等。對于關鍵任務,如法律、醫療等,建議始終以AI輸出為初稿,由人類專家最終審核。開發者則需要進行模型微調、搭建知識增強架構、形成輸出約束機制等。
盡管AI技術的發展帶來了諸多便利,但我們也不能盲目迷信。大部分AI都提醒了“內容由AI生成,請仔細甄別”。只有理性看待AI,正確使用AI,才能避免其帶來的潛在風險。
本文鏈接:http://www.www897cc.com/showinfo-45-12075-0.htmlAI“一本正經”說假話,誰該為信息真實性把關?
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com