英媒稱(chēng),斯蒂芬·霍金教授稱(chēng),一個(gè)不祥的威脅正在硅谷技術(shù)實(shí)驗(yàn)室的深處醞釀。偽裝成貼心的數(shù)字助手和自動(dòng)駕駛車(chē)輛的人工智能技術(shù)正站穩(wěn)腳跟,有朝一日可能給人類(lèi)帶來(lái)滅頂之災(zāi)。
英國(guó)《每日郵報(bào)》網(wǎng)站6月28日?qǐng)?bào)道,這位世界知名的教授發(fā)出警告說(shuō),機(jī)器人可能進(jìn)化得比人類(lèi)更快,它們的目標(biāo)將是不可預(yù)測(cè)的。
在《拉里·金現(xiàn)場(chǎng)秀》視頻訪談節(jié)目中,霍金談到了他對(duì)人類(lèi)未來(lái)的擔(dān)憂。他說(shuō):“我不認(rèn)為人工智能的進(jìn)步一定會(huì)是良性的。”這位物理學(xué)家以前也曾直言不諱地說(shuō)出自己的想法。
霍金是在西班牙加那利群島接受采訪的。他正以貴賓身份參加在那里舉行的斯塔穆斯科學(xué)節(jié)。該科學(xué)節(jié)的宗旨是讓科學(xué)變得平易近人。
霍金說(shuō):“一旦機(jī)器到達(dá)能夠自我進(jìn)化的臨界階段,我們就無(wú)法預(yù)測(cè)它們的目標(biāo)是否會(huì)與我們的一致。人工智能有可能比人類(lèi)進(jìn)化得快。我們需要確保人工智能的設(shè)計(jì)符合倫理,要有切實(shí)的安全措施。”
這并不是這位物理學(xué)教授第一次就機(jī)器人造反作亂的危險(xiǎn)發(fā)出警告。去年他曾表示,隨著技術(shù)學(xué)會(huì)為自己著想以及適應(yīng)環(huán)境,人類(lèi)將面臨一個(gè)不確定的未來(lái)。
他在倫敦舉行的一個(gè)活動(dòng)上對(duì)英國(guó)廣播公司說(shuō):“全人工智能的出現(xiàn)可能給人類(lèi)帶來(lái)滅頂之災(zāi)。”這延續(xù)了他去年早些時(shí)候的說(shuō)法,當(dāng)時(shí)他說(shuō),創(chuàng)造人工智能的成就“將是人類(lèi)歷史上最大的事件,但不幸的是,這同時(shí)也可能是最后的成就”。
他聲稱(chēng),像Siri、Google Now及Cortana等個(gè)人數(shù)字助理功能的出現(xiàn),只是信息技術(shù)“軍備競(jìng)賽”的征兆。它們將在“今后幾十年出現(xiàn)的新事物面前相形見(jiàn)絀”。
而持這種觀點(diǎn)的并非霍金一人。去年,埃隆·馬斯克曾把人工智能比作“喚醒惡魔”。這位特斯拉汽車(chē)公司創(chuàng)始人曾警告說(shuō),有朝一日技術(shù)會(huì)變得比核武器更具危害性。
但霍金在接受英國(guó)廣播公司采訪時(shí)特別提到,人工智能的潛在益處也可能是巨大的,擁有消除戰(zhàn)爭(zhēng)、疾病和貧窮的潛力。
在拉里·金的最新訪談中,霍金稱(chēng)人類(lèi)面臨的最大威脅是我們自身的弱點(diǎn)。2010年接受拉里·金采訪時(shí),霍金表示人類(lèi)的兩個(gè)最大威脅是貪婪和愚蠢。在最新的采訪中,他表示自那時(shí)以來(lái)情況并沒(méi)有發(fā)生多少改變。
霍金說(shuō):“我們的貪婪和愚蠢肯定沒(méi)有減少。6年前,我就污染和人口過(guò)多發(fā)出了警告。從那以后,這兩個(gè)問(wèn)題變得更糟了。按照目前的速度,到2100年世界人口將達(dá)到110億。在過(guò)去5年里,空氣污染出現(xiàn)了惡化。”
他說(shuō),人類(lèi)面臨的最大問(wèn)題是“空氣污染的加劇……以及二氧化碳水平的不斷上升”。