據(jù)英國媒體報道,英國物理學(xué)家史蒂芬·霍金(Stephen Hawking)對于人工智能的擔(dān)憂,已經(jīng)表達(dá)過很多次。近日,霍金在接受拉里·金(Larry King)的采訪時稱,機(jī)器人的進(jìn)化速度可能比人類更快,且它們的終極目標(biāo)將不可預(yù)測。


霍金在采訪中一如既往地表現(xiàn)出人工智能對人類未來的威脅。他說:“我不認(rèn)為人工智能的進(jìn)化必然是良性的。一旦機(jī)器人達(dá)到能夠自我進(jìn)化的關(guān)鍵階段,我們無法預(yù)測它們的目標(biāo)是否與人類相同。人工智能可能比人類進(jìn)化速度更快,我們需要確保人工智能的設(shè)計符合道德倫理規(guī)范,保障措施到位。”
去年,霍金警告稱,隨著技術(shù)不斷發(fā)展,并學(xué)會自我思考和適應(yīng)環(huán)境,人類的生存前途未卜。今年早些時候,霍金也曾表示,成功創(chuàng)造人工智能可能是人類史上最偉大的事件,不幸的是,也有可能是最后一個。
霍金還認(rèn)為,數(shù)字個人助理Siri、Google Now以及Cortana都只是IT軍備競賽的預(yù)兆,未來數(shù)十年競賽將更加激烈。
霍金并非唯一擔(dān)心人工智能的科技界名人。特斯拉和SpaceX創(chuàng)始人伊隆·馬斯克(Elon Musk)曾經(jīng)把開發(fā)人工智能比作“召喚魔鬼”,并警告稱人工智能技術(shù)給人類帶來的傷害可能超過核武器。
雖然,霍金不止一次的表示人工智能的擔(dān)憂,但是它帶來的其他好處顯而易見,可以幫助消除戰(zhàn)爭、疾病以及貧困。霍金認(rèn)為“人類面臨的兩大威脅是我們自身的貪婪和愚蠢”。