據(jù)外媒報(bào)道,英國(guó)劍橋大學(xué)物理學(xué)家霍金日前在接受媒體采訪時(shí),再次強(qiáng)調(diào)人類建立有效機(jī)制,防止人工智能(AI)對(duì)人類的威脅進(jìn)一步上升。
據(jù)報(bào)道,霍金在接受采訪時(shí)表示,包括AI在內(nèi)的新科技若持續(xù)發(fā)展,可能會(huì)通過核戰(zhàn)爭(zhēng)或生物戰(zhàn)爭(zhēng)摧毀人類;人類則需要利用邏輯和理性去控制未來可能出現(xiàn)的威脅。
霍金還就應(yīng)對(duì)AI的威脅建議稱,人類可以組成某種形式的聯(lián)合政府來防范AI可能帶來的威脅。
數(shù)年前霍金已經(jīng)表示,發(fā)展全面的人工智能可能導(dǎo)致人類的毀滅。
霍金說,人工智能的發(fā)展可能幫助人類消除疾病,消除貧困,阻止氣候變化,但是也可能產(chǎn)生人們不愿意看到的種種后果,包括產(chǎn)生自主武器,造成經(jīng)濟(jì)災(zāi)難,以及發(fā)展出同人類發(fā)生沖突時(shí)擁有自己意愿的機(jī)器。
“簡(jiǎn)言之,強(qiáng)大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案?!?/p>
更多資訊請(qǐng)關(guān)注工業(yè)機(jī)器人頻道