近日,一則消息在網(wǎng)絡上引發(fā)熱議。有媒體稱,“DeepSeek就AI模型違規(guī)關聯(lián)王一博與‘李愛慶腐敗案’,作出道歉。”
該媒體還表示,“DeepSeek方面表示,因內(nèi)容審核疏漏,平臺在回答用戶查詢時,引用未經(jīng)證實的網(wǎng)絡謠言,將王一博案與首創(chuàng)集團原董事長李愛慶案件進行不當關聯(lián),對其名譽造成侵害,DeepSeek已永久撤回相關失實信息,并援引北京市第三中級人民法院(2025)京03刑終174號刑事判決書明確。”
然而,經(jīng)虎嗅多方核查發(fā)現(xiàn),DeepSeek 官方微信公眾號、官方網(wǎng)站、官方 X 賬號(前 Twitter)等所有官方社交媒體平臺,均未公開發(fā)表過任何道歉聲明。
虎嗅進一步檢索所有有關 “DeepSeek 就違規(guī)關聯(lián)王一博與李愛慶腐敗案道歉” 的新聞報道,發(fā)現(xiàn)沒有任何一則新聞明確指出 DeepSeek 的道歉渠道,也未出現(xiàn)相關道歉聲明的截圖。
事情的戲劇性不止于此。
該事件的詭異之處在于,全網(wǎng)幾乎都認定 DeepSeek 進行了道歉。大量自媒體、網(wǎng)絡新媒體乃至傳統(tǒng)媒體,都在第一時間跟進報道了這條不實消息。
不僅如此,虎嗅向市面上的所有 AI 大模型詢問該事件,得到的回答竟出奇一致:均表示 DeepSeek 的確就 “違規(guī)關聯(lián)王一博與‘李愛慶腐敗案’” 進行了道歉,并引用了上述不實新聞鏈接。
來源:豆包
來源:DeepSeek
來源:kimi
該事件本屬于社會新聞、娛樂新聞等層面,但筆者作為長期跟蹤科技類新聞的從業(yè)者,站在筆者的角度來看,此事背后折射出的,遠不止新聞報道核查不嚴的問題,更暴露出當下 AI 大模型比 “幻覺問題” 更為嚴峻的困境 ——AI 通過援引假新聞生成新的假新聞。(虎嗅注:人們常說的AI大模型幻覺問題,是指AI在無事實依據(jù)的情況下所生成的不符合事實、甚至不符合邏輯的假消息)
簡單來說,隨著近兩年AI大模型的迅猛發(fā)展,早期普遍存在的“幻覺問題”確實有所緩解。
這主要得益于AI大模型增加了聯(lián)網(wǎng)搜索和推理等能力,這意味著大模型在生成用戶回答時,可以根據(jù)網(wǎng)絡上的公開信息,通過推理的方式,來生成相應的AI回答。
然而,癥結(jié)在于,當網(wǎng)絡上充斥著海量虛假信息時,連人類都難以迅速辨別其真?zhèn)危珹I對此則更缺乏有效的信息核查能力。因此,在引用網(wǎng)絡信息時,便造成了典型的“Rubbish in, Rubbish out”(垃圾進,垃圾出)效應。
以筆者個人經(jīng)驗而言,在日常寫作工作中,AI并不能真正替代人類撰稿。甚至有時,當新聞工作者借助AI輔助寫作時,反而會降低工作效率。
因為大部分時間仍需用于查證AI生成信息的真?zhèn)危幢鉇I援引了某個新聞網(wǎng)頁,證明并非“幻覺”,卻仍需再次核實該新聞網(wǎng)頁所提及內(nèi)容的真實性。
對此,筆者在與多數(shù)新聞從業(yè)者交流時,大家普遍認為,“用AI生成稿件的效率比自己動手寫更低。”
回到該事件,對于AI帶來的警示作用是,AI應該如何在真假難辨的網(wǎng)絡世界里辨別真?zhèn)危瑥亩M一步提升AI生成準確率。
因為只有當AI提高了生成回答的準確率,才能真正被投入到實際的生產(chǎn)工作當中。舉個例子,這也是為什么,在大部分企業(yè)應用大模型時,當中重要的一步是給大模型喂企業(yè)專有的知識庫,這樣在員工向企業(yè)定制的大模型提問時,才不會生成錯誤答案。
當然,對于人類的警示作用,可能就在于,當人類自身都在“生成”假消息時,AI就更無法給出準確答案了。
本文鏈接:http://www.www897cc.com/showinfo-17-166110-0.htmlDeepSeek對“王一博案”道歉:假新聞!
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com