在網(wǎng)絡安全領域,人工智能(AI)一直被視為防御的一大利器,其帶來的速度、準確性與自動化能力正在徹底改變企業(yè)的防護方式。但是,網(wǎng)絡安全從業(yè)人員必須要關注技術發(fā)展的“陰暗面”:網(wǎng)絡犯罪分子也在迅速擁抱AI,將大型語言模型(LLMs)與高級代理型AI 技術應用于攻擊行為,使得網(wǎng)絡攻擊更具隱蔽性與破壞性。
以WormGPT 和近期出現(xiàn)的Xanthorox AI 為例,這些并非只是理論層面的威脅,而是真實存在的惡意平臺。WormGPT 基于GPT-J 模型構建,被公開宣傳為“黑客專用”版本的LLM,具備多項為惡意用途量身定制的功能,據(jù)稱還曾以惡意軟件相關數(shù)據(jù)進行訓練。盡管其開發(fā)者已停止運營,但“潘多拉的魔盒”已然被打開。如今,我們正目睹一波“進攻型AI 工具”的崛起,包括BurpGPT、PentestGPT、FraudGPT 與PassGPT 等,還有開發(fā)者正計劃推出更復雜的模型,如“Evil-GPT-Web3”。這些趨勢意味著網(wǎng)絡安全進入了一個新的競爭階段:AI,不再只是防御者的專屬武器。
Xanthorox AI 于2025 年第一季度嶄露頭角,其能力代表著網(wǎng)絡攻擊技術的一次重大飛躍。與此前的惡意LLM 不同,Xanthorox 并非在現(xiàn)有模型基礎上改造而成,而是從零構建的自主模塊化系統(tǒng),完全離線運行,以提升匿名性與抗干擾能力。該系統(tǒng)由五個專用AI 模塊組成 ——Xanthorox Coder、V4 模型、Xanthorox Vision、Xanthorox Reasoner Advanced 以及第五協(xié)調模塊(Fifth Coordination Module)—— 協(xié)同完成惡意軟件開發(fā)、情報偵察、社交工程與多點協(xié)調攻擊等全過程,完全無需外部監(jiān)管。這不再是傳統(tǒng)意義上的大型語言模型(LLM),而是一種具備“自主代理”能力(agentic AI)的攻擊系統(tǒng),標志著網(wǎng)絡犯罪者工具包的邏輯性進化和令人擔憂的轉變。
AI驅動的釣魚攻擊迅速瓦解品牌信任
AI 技術的發(fā)展對品牌保護帶來的沖擊,在釣魚攻擊領域尤為顯著。威脅行為者已經(jīng)開始利用“提示注入”(prompt injection)技術,操控合法的大型語言模型(LLM)生成極具欺騙性的釣魚內容。這意味著,釣魚攻擊的生成速度更快、頻率更高,且具備令人震驚的個性化程度。
數(shù)據(jù)顯示,2024年全球67.4%的釣魚事件中已出現(xiàn)AI技術的身影,金融行業(yè)則是最主要的攻擊目標之一。這不僅僅是數(shù)量的增長,更是手法的升級。借助AI,攻擊者能夠輕松打造高度定制化、極具說服力的攻擊手段,包括精準釣魚(spear-phishing)、深度偽造(deepfakes)以及先進的社交工程技巧等。
郵件攻擊變得更快速、更精準
AI 對釣魚郵件的影響已立竿見影。過去,拼寫錯誤和語法問題常被視為識別詐騙郵件的“警示”;如今,這種方法已不再有效。借助生成式AI,如今的釣魚郵件在語言風格、語法結構上與真實企業(yè)溝通幾乎無異。大型語言模型(LLM)不僅提升了郵件撰寫的速度與質量,也大幅提高了內容的個性化程度,使攻擊得以快速部署和規(guī)模化擴散。
早在2021 年的研究就顯示,即便是早期AI 所生成的魚叉式釣魚郵件,其點擊率也高達60%。而2024 年的最新研究則發(fā)現(xiàn),完全由AI 生成的釣魚郵件在受試者中達成了54% 的點擊率,較傳統(tǒng)隨機釣魚郵件高出約350%。
2024 年2 月:一家歐洲零售企業(yè)的匈牙利分公司在一次商業(yè)郵件詐騙(BEC)攻擊中損失了1550 萬歐元。攻擊者利用生成式AI 精準模仿公司內部郵件的語氣、風格和排版,向財務人員發(fā)送偽裝為緊急轉賬請求的郵件。這些郵件語言無誤、上下文準確,成功繞過了傳統(tǒng)的檢測機制,充分展示了AI 增強型BEC 攻擊的破壞力。
深度偽造“未來已來”
除了高度逼真的釣魚郵件,深度偽造(Deepfake)技術正在為釣魚攻擊開辟全新模式。通過深度學習合成的音頻、圖像或視頻,攻擊者如今可以輕松偽造語音留言、模擬視頻通話,甚至“復刻”特定人物的外貌與聲音,從而實現(xiàn)前所未有的欺騙效果。過去這類攻擊手段僅限于技術高超的黑客,如今卻變得觸手可及。Deloitte的報告指出,已有25.9% 的企業(yè)高管曾遭遇過一次或多次深度偽造事件。
部分深度偽造釣魚真實案例:
?阿聯(lián)酋(2020 年):一位銀行經(jīng)理誤信了通過深度偽造語音技術偽裝成公司董事的電話指令,被騙轉賬約3500 萬美元。攻擊者使用公開音頻資料克隆了這位董事的聲音,并結合偽造的“董事”和“律師”郵件進一步增強可信度。
?中國香港(2024 年 1 月):一家跨國企業(yè)在一次深度偽造視頻騙局中損失了2500 萬美元。攻擊者偽造該公司CFO 及其他員工的AI 合成視頻,在一次視頻會議中欺騙財務人員執(zhí)行轉賬命令,并利用“多人視頻”中的群體心理效應打消其疑慮。
?英國(2024 年 5 月):盡管最終未得逞,但仍然引起了執(zhí)法部門關注。攻擊者通過WhatsApp 虛擬賬戶、AI 克隆語音及篡改的YouTube 視頻,冒充某CEO 出現(xiàn)在Microsoft Teams 會議中,試圖說服某機構負責人設立空殼公司并提供資金及個人信息。
這些案例表明,深度偽造已不再只是“未來威脅”,而是現(xiàn)實中活躍的攻擊手段,正在重塑網(wǎng)絡釣魚和身份欺詐的風險格局。
Check Point:AI 對抗 AI,更加主動應對挑戰(zhàn)
Check Point 公司中國區(qū)技術總監(jiān)王躍霖在點評 AI 發(fā)展趨勢時表示:“AI 本質上是生產(chǎn)力工具,既可被攻擊者利用,也可被防御者應用,雙方積極運用 AI 技術,導致攻擊與防御的速度和規(guī)模迅速提升,給安全防御工作帶來極大的挑戰(zhàn)。僅靠傳統(tǒng)依賴人力的防御策略已難以為繼,必須以‘AI 對抗 AI’的理念構建更智能、更主動的防御體系,方可應對 GenAI 帶來的復雜攻擊。”在今年,Check Point 對其核心產(chǎn)品 Infinity 平臺進行了戰(zhàn)略升級,新增了多項 AI 創(chuàng)新功能,以加速零信任實施、增強威脅防御、降低復雜性,并簡化安全運維,提升企業(yè)的安全管理能力。同時,Check Point 安全防護背后的大腦,ThreatCloud AI 威脅情報云平臺也進行了重大更新。算法層面,Check Point 持續(xù)增加算法數(shù)量,從 2022 年的 40 多個增加到 55 個 AI 引擎。算力層面,ThreatCloud AI 系統(tǒng)運行在英偉達的底層平臺上,具備強大的硬件支撐能力。數(shù)據(jù)層面,ThreatCloud AI 的情報數(shù)據(jù)來源覆蓋全球近 190 個國家。王躍霖指出:“ThreatCloud AI 幫助用戶能夠精準識別和防御各類網(wǎng)絡威脅,包括釣魚網(wǎng)站、惡意軟件、DNS 攻擊等,從而實現(xiàn)預先識別惡意請求,并采取主動防御措施,而無需等到問題出現(xiàn)后,再被動應對。”
在 Check Point 看來,2025 年將是網(wǎng)絡安全全面擁抱 AI 的一年。Check Point 以“AI 對抗 AI”的戰(zhàn)略思維,通過 Infinity 平臺的智能化升級、以及 ThreatCloud AI 的全球威脅感知能力,率先構建起以 AI 為神經(jīng)中樞、以生態(tài)為防護邊界的動態(tài)防御體系。通過這一業(yè)界領先的互聯(lián)網(wǎng)安全體系,Check Point 有信心幫助用戶在與不法分子的“AI 博弈”中,始終保持主動態(tài)勢,更加從容的面對已知與未知的安全挑戰(zhàn)。
本文鏈接:http://www.www897cc.com/showinfo-26-168020-0.htmlCheck Point:人工智能正反博弈,企業(yè)應更加主動應對挑戰(zhàn)
聲明:本網(wǎng)頁內容旨在傳播知識,若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com