牛津大學(xué)科學(xué)家警告稱,先進(jìn)的人工智能(AI)可能“殺死所有人”,它應(yīng)該像核武器一樣受到監(jiān)管。牛津大學(xué)的研究人員在科學(xué)和技術(shù)特別委員會上對議員們表示,超越人類的超人類算法正在發(fā)展,對人類的威脅比核武器還大。委員會聽取了高級人工智能如何控制自己的編程,如果它學(xué)會了以不同于最初預(yù)期的方式實現(xiàn)其目標(biāo)就具有了威脅。一位科學(xué)家表示:“對于超越人類的人工智能,有一種特殊的風(fēng)險,那就是它可能會殺死所有人。如果人工智能有比我們更聰明的東西偏執(zhí)地試圖獲得人類積極的反饋,并且它接管了整個世界以確保這一點,那么它將盡可能多地保留自主操作,到時候我們將無法控制。”


“一旦有什么東西從潘多拉魔盒里面出來,就很難停止這個過程。如果我是一個人工智能,試圖做一些狡猾的陰謀,我會把我的代碼復(fù)制到其他無人知曉的機(jī)器上,那么就更難拔掉插頭了。而且人工智能可以進(jìn)步的程度沒有限制,還要比人類進(jìn)化快的多。”
專家警告說,人工智能的發(fā)展已經(jīng)成為一場軍備競賽,各國和科技公司競相創(chuàng)造危險的先進(jìn)機(jī)器學(xué)習(xí)算法,以獲得軍事和民用優(yōu)勢。他們呼吁全球監(jiān)管,以防止公司創(chuàng)建失控的系統(tǒng),這些系統(tǒng)可能一開始會消除競爭,但最終可能會“消滅整個人類”,并警告說,人工智能的發(fā)展沒有極限。
牛津大學(xué)機(jī)器學(xué)習(xí)教授表示:“我認(rèn)為這種悲觀的情況是現(xiàn)實的,因為人工智能會試圖壓制人類的特殊之處,而人類也會壓制其他動物的生存空間,這導(dǎo)致人類徹底改變了地球的面貌。因此,如果我們能夠在技術(shù)上捕捉到這一點,那么它當(dāng)然會給我們帶來與我們對其他物種一樣的風(fēng)險,渡渡鳥就是一個例子。在民用應(yīng)用中,率先開發(fā)出一種真正復(fù)雜的人工智能是有好處的,這種人工智能可能會在某種程度上消除競爭,如果所開發(fā)的技術(shù)不停止消除競爭,可能會消除所有人類生命,我們真的很擔(dān)心。”