10月27日消息,美國(guó)當(dāng)?shù)貢r(shí)間周四,人工智能研究公司OpenAI宣布組建新團(tuán)隊(duì),以評(píng)估和減輕與人工智能相關(guān)的“災(zāi)難性風(fēng)險(xiǎn)”。
OpenAI在周四的聲明中表示,這個(gè)新團(tuán)隊(duì)名為Preparedness,其主要任務(wù)是“跟蹤、評(píng)估、預(yù)測(cè)和保護(hù)”人工智能造成的潛在重大問(wèn)題,包括核威脅。
此外,該團(tuán)隊(duì)將致力于減輕“化學(xué)、生物和放射性威脅”,以及人工智能的“自主復(fù)制”行為。Preparedness團(tuán)隊(duì)將解決的其他風(fēng)險(xiǎn)包括人工智能欺騙人類(lèi)的行為,以及網(wǎng)絡(luò)安全威脅。
OpenAI在更新中寫(xiě)道:“我們相信,前沿人工智能模型的能力將超越目前最先進(jìn)的模型,有可能造福全人類(lèi)。不過(guò),它們也構(gòu)成了越來(lái)越嚴(yán)重的風(fēng)險(xiǎn)。”
麻省理工學(xué)院可部署機(jī)器學(xué)習(xí)中心主任亞歷山大·馬德里(Aleksander Madry)將領(lǐng)導(dǎo)Preparedness團(tuán)隊(duì)。
OpenAI指出,Preparedness團(tuán)隊(duì)還將制定和維護(hù)一項(xiàng)“風(fēng)險(xiǎn)知情的開(kāi)發(fā)政策”,該政策將概述公司在評(píng)估和監(jiān)控人工智能模型方面所做的工作。
OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)曾警告過(guò)人工智能可能引發(fā)的災(zāi)難性事件。今年5月,奧特曼和其他著名人工智能研究人員發(fā)表了一份簡(jiǎn)短聲明,稱“減輕人工智能帶來(lái)的滅絕性風(fēng)險(xiǎn)應(yīng)該是全球的優(yōu)先事項(xiàng)。”
此前在倫敦接受采訪時(shí),奧特曼還建議各國(guó)政府應(yīng)該像對(duì)待核武器一樣,“認(rèn)真對(duì)待”人工智能。
本文鏈接:http://www.www897cc.com/showinfo-21-15297-0.htmlOpenAI組建新團(tuán)隊(duì)以評(píng)估人工智能的“災(zāi)難性風(fēng)險(xiǎn)”
聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: 持續(xù)降價(jià)及維修成本高 租車(chē)公司赫茲推遲采購(gòu)10萬(wàn)輛特斯拉計(jì)劃