伴隨科技的發(fā)展,總會出現(xiàn)很多新鮮的名詞。你可曾聽過“人工智能恐懼”?
度娘給我們的解釋是“科技的進(jìn)步讓機器不斷智能化,對人類的發(fā)展和生產(chǎn)力的解放都是一件幸事,我們對人工智能的恐懼,不過是害怕被機器統(tǒng)治罷了。”

近年來,人類對于未來科技的討論熱度一直不減,先是馬斯克(特斯拉CEO)多次警告機器會殺死人類,隨后又有霍金等諸多科學(xué)家開始提出警告??傊?,由于這樣或那樣的原因,一部分人類已經(jīng)難掩對人工智能的恐懼之情,越來越多的“危言聳聽”冒出來,導(dǎo)致極端的人群開始排斥人工智能,甚至排斥科技的進(jìn)一步發(fā)展。
其實,事實遠(yuǎn)沒有人們想象的恐怖,在了解過人工智能的常識以后,你就會發(fā)現(xiàn),“人工智能恐懼”不過是杞人憂天。

關(guān)于常識:數(shù)據(jù)是人工智能的基礎(chǔ)
如今,一部分“人工智能恐懼癥”患者的觀點都是基于人工智能通過深度學(xué)習(xí)變得越來越“聰明”,然后他們想當(dāng)然的認(rèn)為變得“聰明”的人工智能會開始厭惡人類,想著統(tǒng)治甚至消滅人類。其實,這是一個非常沒有常識的想法,只有完全不懂深度學(xué)習(xí)是什么,才會去這樣想當(dāng)然的妄想。
深度學(xué)習(xí),并不是讓機器模擬出人腦的神經(jīng)結(jié)構(gòu)來思考和學(xué)習(xí)知識。深度學(xué)習(xí)是機器學(xué)習(xí)領(lǐng)域中對模式(聲音、圖像等)進(jìn)行建模的一種方法,它是基于統(tǒng)計的概率模型。在對各種模式進(jìn)行建模之后,便可以實現(xiàn)對各種模式進(jìn)行識別,例如建模的模式是聲音,那么這種識別便可以理解為語音識別。而在這個過程中,用于建模的模式,可簡單理解為事前收集到的大量數(shù)據(jù)。
也就是說,目前所有基于深度學(xué)習(xí)來實現(xiàn)的人工智能,都是一種基于數(shù)據(jù)分析來實現(xiàn)的“智能”,它只是通過大量數(shù)據(jù)分析之后,得出一個結(jié)論。它的思考方式是:既當(dāng)某種情況出現(xiàn),便做出某種對應(yīng)的反應(yīng)而已。這其實并不“智能”,只不過給人的感覺是機器預(yù)知了人類的行為等等。所以,這種基于數(shù)據(jù)的學(xué)習(xí)方式,很難對其用于深度學(xué)習(xí)的數(shù)據(jù)庫之外的數(shù)據(jù)做出相應(yīng)的回應(yīng),因此現(xiàn)在我們覺得很智能的“人工智能”都是因為其用于深度學(xué)習(xí)的數(shù)據(jù)量足夠龐大,相反,不太靈光的人工智能則是因為用于深度學(xué)習(xí)的數(shù)據(jù)量太小。故而,在這個過程中,人類只是提供給人工智能用于深度學(xué)習(xí)的數(shù)據(jù),而人工智能也只是機械的記錄這些數(shù)據(jù),并把數(shù)據(jù)一一對應(yīng)到相應(yīng)的結(jié)果上而已。由于超越人類提供的數(shù)據(jù)之外的情況并沒有對應(yīng)的結(jié)果,所以目前的人工智能根本無法超越人類的控制。盡管表現(xiàn)出的現(xiàn)象是比人類“思考”更快,反應(yīng)更靈敏,但這種“思考”與反應(yīng)并不代表機器“聰明”了,因為它從未真正的“思考”過。

關(guān)于意識:對《未來簡史》的誤解
《未來簡史》是近年來在這方面討論較多的一本書,該書的作者是以色列耶路撒冷希伯來大學(xué)的教授——尤瓦爾·赫拉利。書中,赫拉利提出了一個觀點:如果說第一次認(rèn)知革命是因為智人的DNA起了一點小變化,讓人類擁有虛構(gòu)的能力,創(chuàng)造了宗教、國家、企業(yè)等概念,使其成為地球的統(tǒng)治者。那么未來,算法和生物技術(shù)將帶來人類的第二次認(rèn)知革命,完成從智人到智神的物種進(jìn)化。
有一部分“人工智能恐懼”便來源于對這段觀點的誤讀。在最近的一次分享中,赫拉利進(jìn)一步描繪了他眼中的人類未來:
他認(rèn)為人工智能消滅人類只是科幻。智能與意識是完全不同的兩個東西,截止目前,計算機或人工智能的智能水平確實在不斷提高。但在意識上,計算機或人工智能還是零分。也就是說到目前為止,沒有任何跡象表明計算機或人工智能在未來可以獲得意識。沒有意識,也就意味著計算機或人工智能沒有欲望,沒有欲望也就沒有動機或者叫做理由來殺掉人類、甚至統(tǒng)治世界。
關(guān)于道德:機器是純潔的,變壞只是“人心”
退一萬步來說,假設(shè)人工智能在未來的某一天獲得了意識,假設(shè)這種意識與人相同,我們也不能就認(rèn)定它們一定是“壞”的,是對“人類”不利的。
三字經(jīng)里第一句告訴我們,“人之初,性本善”,同理,獲得意識的人工智能初始狀態(tài)也許會是一張“白紙”,至于是變“好”還是變“壞”,也只是看教導(dǎo)它的人心好壞?;蛟S你會說,幾時教授給人工智能的都是善良的一面,但保不齊人工智能會自己學(xué)“壞”。

未來或許會變成人類與人工智能對抗?
但在筆者看來,你有權(quán)認(rèn)為人工智能會獲得意識,那我也有理由相信人工智能會學(xué)到什么叫“道德”,我更有理由相信在這些“道德”的引導(dǎo)下,就算有部分人工智能學(xué)”壞“了,畢竟還會有沒學(xué)”壞“的人工智能幫助人類對抗它們,至少人類不會那么輕易的被人工智能滅亡。
況且,這一切不過是想象,以現(xiàn)有的進(jìn)展,這樣的事情即使在未來某一天會發(fā)生,筆者認(rèn)為現(xiàn)在存活在地球上的人類可能都未必能看得到那一天的到來。當(dāng)然,筆者也愿意相信未來的人類會想出相應(yīng)的應(yīng)對措施,So,何必為了那么遙不可及的“威脅”而拒絕今天的發(fā)展呢?你說呢?