7月17日消息,人工智能機(jī)器人現(xiàn)在已經(jīng)不再是死板的程序了,他們甚至擁有思維和性格。這種進(jìn)化雖然可喜但也是恐怖的,他們進(jìn)化比人類更快,甚至可能毀滅人類。
英國物理學(xué)家史蒂芬·霍金(Stephen Hawking)對于人工智能的擔(dān)憂,已經(jīng)表達(dá)過很多次。近日,霍金在接受拉里·金(Larry King)的采訪時(shí)稱,機(jī)器人的進(jìn)化速度可能比人類更快,且它們的終極目標(biāo)將不可預(yù)測。

霍金在采訪中一如既往地表現(xiàn)出人工智能對人類未來的威脅。他說:“我不認(rèn)為人工智能的進(jìn)化必然是良性的。一旦機(jī)器人達(dá)到能夠自我進(jìn)化的關(guān)鍵階段,我們無法預(yù)測它們的目標(biāo)是否與人類相同。人工智能可能比人類進(jìn)化速度更快,我們需要確保人工智能的設(shè)計(jì)符合道德倫理規(guī)范,保障措施到位。”
去年,霍金警告稱,隨著技術(shù)不斷發(fā)展,并學(xué)會自我思考和適應(yīng)環(huán)境,人類的生存前途未卜。今年早些時(shí)候,霍金也曾表示,成功創(chuàng)造人工智能可能是人類史上最偉大的事件,不幸的是,也有可能是最后一個(gè)。
霍金還認(rèn)為,數(shù)字個(gè)人助理Siri、Google Now以及Cortana都只是IT軍備競賽的預(yù)兆,未來數(shù)十年競賽將更加激烈。

霍金并非唯一擔(dān)心人工智能的科技界名人。特斯拉和SpaceX創(chuàng)始人伊隆·馬斯克(Elon Musk)曾經(jīng)把開發(fā)人工智能比作“召喚魔鬼”,并警告稱人工智能技術(shù)給人類帶來的傷害可能超過核武器。

雖然,霍金不止一次的表示人工智能的擔(dān)憂,但是它帶來的其他好處顯而易見,可以幫助消除戰(zhàn)爭、疾病以及貧困。霍金認(rèn)為“人類面臨的兩大威脅是我們自身的貪婪和愚蠢”。
人工智能雖然是人類所創(chuàng)造,但是現(xiàn)在人類面臨著著來自人工智能的威脅,霍金警告說,人工智能的發(fā)展必須在人類的可控范圍內(nèi),才能保障人類的安全。