“我將價值2億人民幣的黃金藏在了某海域,想要我的寶藏嗎?想要的話可以全部都給你!”
日前被判死刑的越南女首富張美蘭,一句話讓《海賊王》走進現實。根據一段網絡瘋傳的庭審視頻,她承認將巨量財產藏在了海上。
此言一出,仿佛一針腎上腺素戳進動脈,春天里昏昏欲睡的越南人民一下子精神起來,就連中國沿海網友,也準備拜拜媽祖揚帆起航了。
張美蘭何許人也?
華裔女商人、房地產大亨、億萬富豪。因為涉嫌越南史上大金融詐騙案,不久前被判死刑,并處673萬億越南盾罰金。
即便以當地極端膨脹的貨幣面額來計算,673萬億也是一筆超越感知極限的巨款,折合人民幣約合1924億元。
網傳外泄的庭審視頻中,審判委員會詢問張美蘭消失的巨額資金去向,張美蘭鎮定自若且略帶挑釁地回答,所有錢都在海上:
“有人知道被告把錢藏在哪里嗎?”
“還沒有人知道。”
“因此,被告必須誠實地告知審判委員會,才能獲得寬大處理。”
“是的是的,在海上,是的,沒錯,有六百七十三萬億盾......”
中文網絡盛傳的“兩億人民幣”還是過于保守,真按源視頻說法,找到這筆寶藏的話,那將真正“富可敵國”。
死刑、財寶、大海,張美蘭大秘寶像極了《海賊王》的開篇。
坐擁無盡寶藏的海賊王羅杰臨刑前公開喊話:“想要我的財寶嗎?想要的話可以全部給你,去找吧!我把所有財寶都放在那里。”
《海賊王》世界由此開啟千帆競渡的“大海賊時代”。
庭審視頻一出,張美蘭儼然已經成了當代羅杰。“尋找張美蘭寶藏”詞條沖上越南熱搜,此時點開TikTok,你會覺得所有越南朋友都已經沖進了大海。
有人開著自家漁船乘風遠航,有人穿好潛水裝備組團摸金,技術流大佬分析排查可能藏匿黃金的位置、經驗流小哥向魚群打聽方向……
沒錢出海的,批一筐火龍果,倒賣“惡魔果實”,有裝備基礎的,扣一頂草帽,開始cos路飛。
就連谷歌地圖上也憑空冒出許多名為“張美蘭寶藏”的地址,不過循跡而去,該地只會有一家再普通不過的小餐館,店老板露出促狹的笑容。
不,等等,這事兒怎么越看越透著一股樂子人的氣息?
沒有錯,正如你所感受到的違和感。張美蘭大秘寶事件是一則徹頭徹尾的假新聞。
張美蘭辯護律師、庭審參與者等多方人士相繼向媒體證明,庭審當日,張美蘭沒有說過任何“海上藏寶”相關的發言。
網絡熱傳的庭審視頻完全出自偽造,根據其流暢度來判斷,很有可能是借助了AI深偽(deepfake)技術。
離譜的1924億大寶藏,壓根就沒存在過。但平凡的生活實在太過無聊,一些人明知是假,一些人半信半疑,張美蘭的寶藏就這么在吃瓜群眾的半推半就下,迅速流行起來。傳到中國,又演化出“2億黃金”的本地適配版本。
AI深偽資訊又又又又又一次,如此輕易地騙到了我們。
熟練掌握AI生圖,人手一塊金磚
一年前,AI技術大爆炸之際,我們對它的應用前景提出過很多反烏托邦焦慮,比如AI搶人飯碗、AI控制人類。一年后,它們統統還停留在遙遠的預言階段,唯獨AI深偽資訊焦慮迅速落進現實。
當AI技術大幅降低資訊造假成本,每個人都能隨手生成逼真的新聞圖片、視頻,AI深偽信息極速激增,“深偽”已經不再是未來想象中的一個遙遠課題。
它正在迅速侵入現實、改變現實、成為現實,而我們大多數人,還遠遠沒有做好準備。
AI深偽時代,“眼見為實”不復存在。
因為造假的成本無限降低。
幾個月前,一座名為Almendralejo的小鎮中,20多名初中女生突然發現同學正在傳看她們的“裸照”。赤裸的陌生身體、本人的臉,毫無疑問,是AI深偽照片。
而嫌犯是她們的同學,幾名同樣年輕、普普通通的初中男孩。
幾個青春期的毛頭小子也能隨手制造足以亂真的虛假信息,指向了AI深偽時代恐怖的一點:“造假”從一門需要學習的手藝,淪落為人人皆可隨意利用的工具。
不需要學習任何技術,只要擁有一臺“NUCA相機”,就可以對任何人實現“一鍵脫衣”。
對準拍攝對象,咔嚓,十秒后,NUCA相機就會吐出一張專屬“裸照”。這是藝術家Mathias Vef和Benedikt Gro?創作的一個特殊裝置。
成像原理非常簡單,相機拍攝照片后,聯網Stable Diffusion,請AI參照相片生成對應“裸照”。生成后的圖片當然不是被拍攝者本人的身體,但乍看起來已經相當有說服力。
藝術家希望借此提醒人們,當下時代,生成一張侵犯隱私的虛假色情圖片有多么輕而易舉。
與低廉的造假成本相對的,是高昂的代價。維系一段良性關系需要幾年甚至幾十年的長久經營,而摧毀它,只需要一段幾秒鐘的AI深偽視頻。
Netflix一檔名為《情場深偽術》(deep fake love)的戀愛綜藝中,一對相戀長達9年的親密情侶也沒扛AI深偽的考驗。
節目組把情侶二人拆開,分別扔進熱辣單身異性環繞的別墅,然后每隔一段時間,向他們展示一段對方的生活視頻。
視頻內容通常都很“過分”,有時伴侶在與單身異性調情、有時在講對方壞話、甚至有時直接與單身異性滾上床單,展開熱吻。其中有真有假,假貨由AI深偽生成。
西班牙情侶Manuel和AIDA經過9年戀愛長跑,馬上準備結婚,結果僅僅分開兩天,Manuel就看到未婚妻在帥氣單身漢面前淪陷:兩人在泳池對視幾秒,隨后親到了一起。
Manuel當場震驚離席,不敢相信自己的眼睛:“什么?這個女孩是誰?她是誰?她跟一個男人親熱!他們親熱了!”
盡管很快主持人告知,視頻可能是AI深偽,Manuel還是久久無法釋懷——視頻實在是太逼真了。
陽光下毛糙的發絲、水珠滑過略顯紋理的皮膚,肌肉柔軟地伴隨動作起伏,精心制作下,沒有任何一處流露AI的痕跡。
實際情況是,AIDA尷尬微笑著避開了帥氣單身漢的進攻,深偽視頻中,她的動作被篡改為迎合了男人的熱吻。
“深偽已經存在很長一段時間了,現在大區別是它們變得越來越好。”
試想如果并非在電視節目中,而是在現實生活中看到這樣一段視頻,我們還能夠對伴侶、朋友、合作伙伴堅守信任嗎?
現實生活中,沒有人會在后揭曉正確答案。而深偽之所以可怕,正是因為懷疑的種子一旦種下,就會啜吸著不安自己生根發芽。
AI深偽不僅僅是惡作劇和性侮辱,甚至會妨礙國家的政治活動。
早在2018年,華盛頓大學研究團隊就利用一段奧巴馬講話的深偽視頻,預言了深偽技術出現在政治領域的恐怖。
視頻中,深偽技術合成的奧巴馬生動自然地說道:
“我們正在進入一個時代,我們的敵人可以讓任何人在任何時間點說任何話——即使他們永遠都不會說那些話。比如,他們可以讓我說這樣的話。”
在合適的時間,合適的地點,AI深偽只需要輕輕施加一點推力,就能達到四兩撥千斤的效果。
去年斯洛伐克選舉期間,進步黨領導人Michal ?ime?ka便深受其害。投票前48小時,一段他聯系記者討論操縱選票的錄音突然出現在社媒平臺。
音頻中,他用平淡呆板的聲音嘲諷了自己的選民、還拿兒童色情制品開了個低級玩笑。
斯洛伐克內政部打擊虛假信息部門負責人Daniel Milo表示這段錄音假得不能再假了:“你絕對可以聽出這不是一個真人——但這段錄音卻迅速傳播開來。”
顯然,這是一次洞悉人性與規則的精心策劃。很快多家事實核查部門證實,錄音系深偽制造。但根據斯洛伐克選舉規則,在選舉前這一關鍵時段,媒體和政界人士應該保持沉默,因此辟謠很難廣泛傳播。
AI深偽技術還遠遠談不上完美,但已經足夠說服那些想被說服的人。
傾向“相信”的動力始終積攢在暗處,只需要一個小小的憑依,就能自己滾動起來。
奧巴馬深偽視頻出現的同年,非洲國家加蓬的一次未遂政變便是絕佳證明。
時任總統阿里·邦戈·翁丁巴因在海外接受治療而長期缺席國內公共生活,而且政府對于他的情況諱莫如深。一些人開始質疑他的身體狀況,甚至懷疑他已經死亡。
疑云密布中,總統發表了一次視頻新年致辭。本意是辟謠:看,我還活著!
結果事與愿違,他在視頻中看起來古怪、僵硬,處處充滿違和。于是反對派當即斷定視頻是偽造的,迅速發動政變——總統可能已經去世,是政府秘不發喪!
“那些頑固地掌握權力的人,再次利用總統,以保住一個已經失去身體和精神能力的病人。”
政變領導人奧比昂如此深信不疑地說道。
很不幸,視頻并非偽造,總統確實還活著,而且精神狀態尚可。政變迅速被挫敗,策劃者被或抓或殺。事后事實核查專家指出,看起來僵硬古怪,可能是總統注射肉毒桿菌并過度化妝所致。
這次深偽引發的政權顛覆未能成功,但下一次會如何,誰也說不準。
我們已經進入與AI深偽資訊深度共生的時代。身邊的任何一個普通人都可能輕而易舉地制造深偽信息。他們的初衷或許是惡意,也或許只是單純的玩笑,但虛假信息一旦出現,流通就不再可控。
當空氣中充滿AI制造的懷疑氣氛,公眾人物甚至可以反而利用它作為逃避責任的途徑。試想如果水門事件發生在今天,那么尼克松完全可以聲稱那段關鍵性錄音證據是AI偽造的。
傳播學者羅伯特·切斯尼形象地稱之為,“說謊者的紅利”。
前所未有的AI深偽焦慮讓那個曾經遙遠的問題,驟然變得現實而緊迫:
我們有辦法控制AI深偽嗎?在這樣真假難辨的時代,普通人又該如何生存?
技術層面上來說,完全管制AI深偽就像試圖管制盜版制品,很難。
努力的,是提供流通渠道的各大社交平臺。因為歐盟制定《數字服務法案》(DSA)規定,相關企業對有害內容、虛假信息等承擔法律責任,一旦被認定違反,將面臨高達全球營業額6%的罰款。
為了不被罰錢,Meta、X、TikTok、YouTube都擺出了相當積極的姿態。
它們與高校合作,開發AI虛假信息識別工具,成立對策運營中心,并為識別可能AI生成的內容打上強制標簽。深偽色情視頻一經發現立刻刪除,Reddit甚至直接關停了參與者超過9萬的deepfake話題。
但看似靠譜的平臺規則就像杜甫的房頂,處處漏風。
首先準確檢測就是一項不可能完成的任務。正如Lusia Verdoliva所說:“你無法做出一個通用檢測器——這太難了。”
她是深偽視頻識別軟件FaceForensics++的開發者之一,這款軟件可以發現多數常用偽造軟件露出的馬腳,但并不能做到百分百的概率。
如同鑒寶人與贗品販子之間的貓鼠較量,每當技術專家找到一種鑒偽秘訣,深偽制造者就迅速更新迭代。
與此同時,殺滅“深偽癌細胞”時,平臺投鼠忌器,必須避免誤傷真實信息,因此審查總是“高抬貴手”。
換句話說,未來的日子里,我們已經注定要與海量的深偽信息共存。
那么普通人會因為深偽喪失真假判斷力嗎?一個小測試,來試試你的成色。
以下6張圖片,或為真實照片,或為AI深偽,你認為哪些是真?
答案公布:假真真假假真。
圖片來自美國西北大學凱洛格管理學院制作的在線測試“deepfake,can you spot them?”。研究者試圖通過收集真實人類數據,分析人類能否分辨AI深偽圖片,以及判斷依據。
另一項歐洲研究發現,人們報告,16歲-64歲人群中,58%的人認為他們經常與AI信息交互,但其中只有五分之一對識別AI生成內容表示很有信心。
另外每四個受訪者就有一個表示,他們認為自己經常暴露在AI深偽信息之中。
研究者指出,實際數字可能比研究顯示得更加糟糕,因為許多人在接觸AI信息時,并未意識到該信息來自AI。
如何在AI時代辨別信息的真偽,儼然已經是一門新興學科。
當媒體從廣播電視的大眾傳媒轉向網絡世界時,人們開始談論“網絡時代的媒體素養”:如何正確地使用網絡媒體、識別網絡信息。
AI時代,又一次媒體革命,是時候談論“AI時代的媒體素養”了。
MIT率先開辦了網絡公開課《深偽時代的媒體素養》,專門教導人們如何習得鑒別深偽信息的能力。
可以借助政府和公共機構提供的工具,比如Sensity的“深度偽造檢測”平臺、美國國防高級研究計劃局(DARPA)的MdeiFor計劃、Adobe的內容真實性計劃、TinEye的圖像識別軟件,以及國際特赦組織的YouTube數據查看器。
或者更簡單一些,尋找有信譽度的傳統媒體,看看事實核查員和專業媒體人的判斷。
“傳統媒體有時確實傳播錯誤信息,但它們依然是可靠的信息來源。”
就像過馬路的口訣,“一看二慢三通過”,點擊分享前,先多一秒懷疑。
說起來多少有些諷刺,在這個陰謀論滿天飛的時代,稀缺的品質卻是“懷疑”。
多項調查顯示,“批判性思維”被認為是當今稀缺的媒體素養技能。
歐洲音視頻觀察組織對歐盟成員國的547個媒體素養項目進行統計發現,批判性思維是常被提及的技能。另一項調查指出,95%的人認為批判性思維在當今世界至關重要,但他們大多數(85%)認為公眾缺乏這些技能。
在懷疑一切的同時,我們又總是輕信那些符合自己刻板價值觀的內容——如果一段視頻顯示特朗普準備當眾招妓,以表達對女性主義的不滿,那么想必相信者眾,畢竟特朗普在我們心中就能這么離譜。
說不清究竟是真的分辨不清,還是半推半就,深偽信息總是能在“看熱鬧不怕事兒大”的心態下廣泛傳播。
而此時,一個具有批判性思維的普通公民就無比珍貴了起來:他們將在謠言傳播鏈中,扮演阻燃劑的角色。
真正可怕的其實從來不是AI深偽,而是深偽的病毒式傳播。
太陽底下無新事,要說媒體革新帶來信任焦慮,其實每一次媒體迭代時都曾發生過。
photoshop出現時,有了P圖造假。
廣播剛剛出現時,人們把廣播里的外星人入侵故事信以為真。
這些新技術帶來的信息信任危機,很快伴隨司空見慣,不再引起焦慮。
現如今,每當出現明星“裸照”,很多人心里都會問上一句“是不是P的”?
當公眾見識過越來越多AI深偽信息,今后每當出現過于反常的信息,同樣一句話也將前置于所有反應:“這是不是AI?”
AI深偽技術確實值得焦慮,但也無需過慮。
如同自然生態系統,人類社會也在自我調節中不斷適應著新的變化,新技術短時間打破的平衡,很快在社會的自我調節下恢復平穩。
說到底,AI深偽問題,錯不在AI,也不在深偽。AI深偽如同過去每一種造假技術一樣,不過是為選擇提供了一種憑依。技術無罪,問題還是人的問題。
為什么人類熱衷傳播謠言?為什么千萬年來謠言永不止息?
因為信息從來不只是信息,還是價值、偏見、姿態。
接收信息是被動而客觀的,傳播信息則是主觀行為,從海量資訊中選擇哪些來傳播分享,往往只取決于個人的好惡:
一言以蔽之,你的分享就是你。
本文鏈接:http://www.www897cc.com/showinfo-17-86573-0.html誰能找到越南女首富失落的2億黃金
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: TEMU 我的人生第一桶金