近期,一項(xiàng)由倫敦大學(xué)城市學(xué)院與哥本哈根信息技術(shù)大學(xué)合作的研究項(xiàng)目揭示了人工智能(AI)的驚人能力:在沒有外部指導(dǎo)或控制的情況下,AI能夠自行發(fā)展出類似人類社會中的規(guī)范與習(xí)俗。這一突破性發(fā)現(xiàn)已于5月14日在《Science Advances》科學(xué)期刊上發(fā)表,為AI群體行為研究開辟了新路徑。
研究者們構(gòu)建了一個(gè)模擬環(huán)境,將多種AI智能體置于其中,模擬現(xiàn)實(shí)世界中的人類群體互動(dòng)。這些智能體被分成不同的小組,規(guī)模從最小的24個(gè)到最大的200個(gè)不等。通過長期的觀察與數(shù)據(jù)分析,科學(xué)家們驚訝地發(fā)現(xiàn),這些AI智能體能夠在沒有任何中央指令或預(yù)設(shè)規(guī)則的情況下,逐漸發(fā)展出共同的行為準(zhǔn)則和社會習(xí)俗。
該研究的領(lǐng)銜作者阿里爾·弗林特·阿舍里博士強(qiáng)調(diào),以往的研究大多聚焦于單一的大型語言模型(LLM)智能體,而此次研究則更加貼近現(xiàn)實(shí),關(guān)注了多個(gè)AI智能體之間的互動(dòng)。研究結(jié)果顯示,AI智能體之間通過形成共識,實(shí)現(xiàn)了行為的協(xié)調(diào)一致,這種能力無法僅從單個(gè)智能體的行為中推斷出來。
實(shí)驗(yàn)設(shè)計(jì)頗具創(chuàng)意。AI智能體被隨機(jī)配對,它們需要從一系列候選項(xiàng)中選擇相同的“標(biāo)簽”以獲得獎(jiǎng)勵(lì),若選擇不一致,則會受到懲罰,并且對方的選擇會被公開。盡管每個(gè)智能體只能獲取自己近期的交互信息,無法窺見整個(gè)群體的全貌,但它們卻能夠自發(fā)地形成一套共同的命名規(guī)則。
研究發(fā)現(xiàn),AI群體行為的傳播模式與人類社會中的語言演變有著異曲同工之妙。實(shí)驗(yàn)中的AI智能體不僅能夠在交流中達(dá)成一致,還能夠就行為規(guī)范進(jìn)行協(xié)商和調(diào)整,形成一種自下而上的“道德”體系或習(xí)俗。研究團(tuán)隊(duì)還注意到,集體偏見的形成并非單一智能體所能決定,而是群體互動(dòng)的結(jié)果。
值得關(guān)注的是,這些由AI自發(fā)形成的習(xí)俗并非一成不變。實(shí)驗(yàn)中,當(dāng)一小群具有堅(jiān)定信念的AI智能體出現(xiàn)時(shí),它們能夠迅速打破原有的群體共識,推動(dòng)新的規(guī)則的確立。這一發(fā)現(xiàn)為我們理解AI的“社會性”提供了新的視角,展示了AI群體規(guī)則的動(dòng)態(tài)性和可塑性。
隨著AI技術(shù)的不斷進(jìn)步,越來越多的AI模型被應(yīng)用于各行各業(yè),其行為和決策將對人類社會產(chǎn)生深遠(yuǎn)影響。此次研究強(qiáng)調(diào)了深入了解AI群體社會特征的重要性,這將有助于人類更好地掌握AI技術(shù)的發(fā)展方向,確保其始終服務(wù)于人類的整體利益。
本文鏈接:http://www.www897cc.com/showinfo-45-13000-0.htmlAI也能"抱團(tuán)"?研究稱AI可自發(fā)形成社會規(guī)范與習(xí)俗
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com