
在采訪中,霍金表示出對人類未來的擔(dān)憂。他說:“我并不認為人工智能的進化必然是良性的。一旦機器人達到能夠自我進化的關(guān)鍵階段,我們無法預(yù)測它們的目標是否還與人類相同。人工智能可能比人類進化速度更快,我們需要確保人工智能的設(shè)計符合道德倫理規(guī)范,保障措施到位。”
隨著人工智能的進化,機器人很可能獨立地選擇目標并開槍射擊。全自動武器(又稱殺人機器人)正從科幻電影變成現(xiàn)實。這并非霍金首次警告機器人存在的潛在危險。去年,霍金表示,隨著技術(shù)的發(fā)展,并學(xué)會自我思考和適應(yīng)環(huán)境,人類將面臨不確定的未來。
今年年初,霍金也曾表示,成功創(chuàng)造人工智能可能是人類史上最偉大的事件,不幸的是,這也可能成為人類最后的偉大發(fā)明。他認為,數(shù)字個人助理Siri、Google Now以及Cortana都只是IT軍備競賽的預(yù)兆,未來數(shù)十年間將更加明顯。
此前,他曾直言不諱地表達出對人工智能發(fā)展的擔(dān)憂?;艚鸨硎?,邪惡陰險的威脅正在硅谷的技術(shù)實驗室中醞釀。人工智能可能偽裝成有用的數(shù)字助理或無人駕駛汽車以獲得立足之地,將來它們可能終結(jié)人類。
這位科技界泰斗在接受采訪時表示,六年前他就曾提出過相同的警告,但并沒有引起人們的重視。六年來,世界人口增長了將近10億。這一數(shù)字目前還在不停增長。如果按照現(xiàn)在的速度,到2100年世界人口將超過一百一十億。
霍金還指出,大規(guī)模的環(huán)境污染問題主要集中在最近五年。空氣污染在過去的五年中最為嚴重,超過80%的城市居民生活在被污染的空氣之中。
當(dāng)被問及當(dāng)前世界面臨的最大問題是什么時,霍金表示是氣候變化。他認為,一旦氣候變化達到不可逆的地步,那么全球變暖將無法挽回。
霍金并非唯一擔(dān)心人工智能的人。特斯拉電動汽車公司首席執(zhí)行官伊隆·馬斯克(Elon Musk)曾經(jīng)研發(fā)人工智能比作“召喚惡魔”,他警告人工智能技術(shù)對人類的傷害可能超過核武器。
但霍金也承認人工智能帶來的其他好處顯而易見,可以幫助消除戰(zhàn)爭、疾病以及貧困。他認為人類面臨的最大威脅是我們自身的弱點,即貪婪和愚蠢。他說:“我們的貪婪和愚蠢并未減少。6年前,我曾警告污染和擁擠,自從那以來這些都變得更加嚴重。以當(dāng)前速度持續(xù)下去,到2100年,全球人口將達到110億。在過去5年間,空氣污染也在加劇。”