

在采訪中,霍金表示出對人類未來的擔憂。他說:“我并不認為人工智能的進化必然是良性的。一旦機器人達到能夠自我進化的關(guān)鍵階段,我們無法預測它們的目標是否還與人類相同。人工智能可能比人類進化速度更快,我們需要確保人工智能的設計符合道德倫理規(guī)范,保障措施到位。”

隨著人工智能的進化,機器人很可能獨立地選擇目標并開槍射擊。全自動武器(又稱殺人機器人)正從科幻電影變成現(xiàn)實。這并非霍金首次警告機器人存在的潛在危險。去年,霍金表示,隨著技術(shù)的發(fā)展,并學會自我思考和適應環(huán)境,人類將面臨不確定的未來。

今年年初,霍金也曾表示,成功創(chuàng)造人工智能可能是人類史上最偉大的事件,不幸的是,這也可能成為人類最后的偉大發(fā)明。他認為,數(shù)字個人助理Siri、Google Now以及Cortana都只是IT軍備競賽的預兆,未來數(shù)十年間將更加明顯。

此前,他曾直言不諱地表達出對人工智能發(fā)展的擔憂?;艚鸨硎?,邪惡陰險的威脅正在硅谷的技術(shù)實驗室中醞釀。人工智能可能偽裝成有用的數(shù)字助理或無人駕駛汽車以獲得立足之地,將來它們可能終結(jié)人類。

霍金并非唯一擔心人工智能的人。特斯拉電動汽車公司首席執(zhí)行官伊隆·馬斯克(Elon Musk)曾經(jīng)研發(fā)人工智能比作“召喚惡魔”,他警告人工智能技術(shù)對人類的傷害可能超過核武器。
但霍金也承認人工智能帶來的其他好處顯而易見,可以幫助消除戰(zhàn)爭、疾病以及貧困。他認為人類面臨的最大威脅是我們自身的弱點,即貪婪和愚蠢。他說:“我們的貪婪和愚蠢并未減少。6年前,我曾警告污染和擁擠,自從那以來這些都變得更加嚴重。以當前速度持續(xù)下去,到2100年,全球人口將達到110億。在過去5年間,空氣污染也在加劇。”