有時(shí)候,當(dāng)人類看到能像他們一樣做出反應(yīng)的機(jī)器、或者模仿他們的以智慧專長(zhǎng)(比如戰(zhàn)略和認(rèn)知)的計(jì)算機(jī)時(shí),他們會(huì)開玩笑說(shuō)“人類需要接受由機(jī)器人稱霸的未來(lái)”。
但是埋在這個(gè)玩笑話里面的是一顆令人不安的種子。從《2001:太空漫游》(1968年)到《復(fù)仇者聯(lián)盟:奧創(chuàng)紀(jì)元》(2015年),這類科幻小說(shuō)創(chuàng)作和流行電影都推測(cè)人工智能的發(fā)展將超出創(chuàng)造者的預(yù)期并不再受他們的控制,最終壓倒人類并奴役人類或使人類滅絕。

人類與人工智能之間的沖突是AMC科幻系列《真實(shí)的人類》的前沿和中心,這系列電視劇的第三季已在6月5日播出。在新的一季中,有意識(shí)的合成人將直面敵對(duì)的人類——他們以懷疑,恐懼和仇恨心理對(duì)待合成人。Synths意識(shí)到自己不僅在為基本權(quán)利,而且在為自己的生存而斗爭(zhēng),并且反對(duì)那些認(rèn)為他們不如人類和認(rèn)為他們危險(xiǎn)的人類。
即使在現(xiàn)實(shí)世界中,也并非每個(gè)人都愿意張開雙臂歡迎人工智能。近年來(lái),隨著計(jì)算機(jī)科學(xué)家們推動(dòng)人工智能的發(fā)展,技術(shù)和科學(xué)領(lǐng)域的領(lǐng)軍人物已經(jīng)警告說(shuō)人工智能可能對(duì)人類構(gòu)成危險(xiǎn),甚至認(rèn)為人工智能的能力可能會(huì)滅絕整個(gè)人類。
但是,為什么人類對(duì)人工智能感到如此不安呢?
“存在主義威脅”
伊隆·馬斯克是引發(fā)人類對(duì)人工智能發(fā)出危險(xiǎn)信號(hào)的主要聲音之一。2017年7月,馬斯克在全國(guó)州長(zhǎng)協(xié)會(huì)的會(huì)議上告訴與會(huì)者,“我接觸到了尖端的人工智能,我認(rèn)為人們應(yīng)該真正擔(dān)心的是它。”
馬斯克補(bǔ)充說(shuō):“我一直敲響警鐘,但是直到人們看到機(jī)器人在街上殺人,他們才知道人工智能的危險(xiǎn),他們也不知道如何應(yīng)對(duì),因?yàn)槿斯ぶ悄軐?shí)在是太虛無(wú)縹緲的東西了。”
早前,在2014年時(shí),馬斯克稱人工智能是“我們最大的生存威脅”,在2017年8月,他宣稱人類面臨來(lái)自人工智能的風(fēng)險(xiǎn)比來(lái)自朝鮮的風(fēng)險(xiǎn)更大。
于3月14日去世的物理學(xué)家斯蒂芬·霍金也曾對(duì)惡意的人工智能表示擔(dān)憂,他在2014年告訴英國(guó)廣播公司“人工智能的全面發(fā)展可能會(huì)造成人類的滅亡。”
同樣,還有些程序員——特別是那些在馬薩諸塞州劍橋市麻省理工學(xué)院媒體實(shí)驗(yàn)室的程序員——似乎下定決心要證明人工智能有多可怕。

使用了惡夢(mèng)機(jī)器后,美麗的巴塞羅那的米拉之家也顯得有點(diǎn)嚇人。
來(lái)源:惡夢(mèng)機(jī)器
麻省理工學(xué)院計(jì)算機(jī)科學(xué)家于2016年推出了名為“惡夢(mèng)機(jī)器”的神經(jīng)網(wǎng)絡(luò),惡夢(mèng)機(jī)器將普通照片變成了令人不安,毛骨悚然的照片。麻省理工學(xué)院小隊(duì)制造了名為“雪萊”的人工智能,她能編寫恐怖故事,與Reddit用戶一起在論壇r/nosleep上發(fā)布了140000條恐怖故事。
麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究經(jīng)理Manuel Cebrian先前在一封關(guān)于Shelley編寫恐怖故事的電子郵件中告訴Live Science:“我們感興趣的是,在這種特殊情況下,人工智能如何觸發(fā)人類的情緒,比如恐懼。”
恐懼和厭惡
康奈爾大學(xué)的計(jì)算機(jī)科學(xué)系副教授Kilian Weinberger告訴Live Science:對(duì)人工智能產(chǎn)生的負(fù)面情緒一般可以分為兩類:一是人工智能會(huì)有意識(shí)并且試圖摧毀人類,二是不道德的人將利用人工智能用于邪惡的事情。
他說(shuō):“人類害怕的一件事是,如果超智能的人工智能比人類更聰明——變得有意識(shí),那么它可以把我們當(dāng)成低級(jí)生物來(lái)對(duì)待,就像我們對(duì)待猴子一樣。這肯定不是我們想要的。”
Weinberger指出,“然而,人們擔(dān)心人工智能會(huì)有意識(shí),推翻人類,這些都是基于對(duì)人工智能的誤解。人工智能在由指定其行為的算法定義的明確的限制下運(yùn)行。某些類型的問(wèn)題可以很好地映射到人工智能的技能組合上,這使人工智能能相對(duì)容易地完成某些任務(wù)。但是,大多數(shù)情況并不適用于人工智能。”
這意味著,即使人工智能在精心劃定的界限內(nèi)可能具有令人印象深刻的專長(zhǎng):例如大師級(jí)的棋類游戲或快速識(shí)別物體的圖像,這就是人工智能能力的界限。
Weinberger說(shuō):“人工智能具有意識(shí)——這方面的研究一直沒有進(jìn)展。但是我認(rèn)為,在不久的將來(lái),就會(huì)有所進(jìn)展。”
Weinberger補(bǔ)充道,另一個(gè)令人擔(dān)憂的想法——一個(gè)不道德的人會(huì)由于帶有危害性的原因而利用人工智能——不幸的是,這種想法非常有可能。他說(shuō),幾乎任何類型的機(jī)器或工具都可以用于好的或壞的目的,而這取決于使用者的意圖,利用人工智能的武器的前景無(wú)疑是令人恐懼的,并且也可以從嚴(yán)格的政府監(jiān)管中受益。
Weinberger告訴Live Science,也許,如果人們可以放下對(duì)人工智能的恐懼,他們可能會(huì)更愿意承認(rèn)它的好處。例如,增強(qiáng)圖像識(shí)別算法可以幫助皮膚科醫(yī)師識(shí)別潛在癌性的痣,而有一天,自動(dòng)駕駛汽車可能會(huì)減少汽車事故造成的死亡人數(shù),其中許多的汽車事故是由人為錯(cuò)誤造成的。
但是對(duì)于具有自我意識(shí)的Synths在“真實(shí)的人類”世界中,對(duì)有意識(shí)的人工智能的恐懼激起了Synths與人類之間的劇烈對(duì)抗,人類與人工智能之間的斗爭(zhēng)可能會(huì)繼續(xù)不斷地升級(jí)。