強人工智能(強AI)是什么?簡單來說,就是一個類似于人類大腦的智能,它可以自主完成對世界的理解、對知識的學習,而不需要人類為它們的感知和實踐預先建立好模型(就像現在的深度神經網絡和千千萬萬比它更弱的程序那樣)。強人工智能是人工智能的終極形態(tài),相信它能給人類帶來福祉和帶來災難的人都為數不少,但大家普遍都同意在超強計算能力的加持下,強人工智能的進步速度會遠遠快于人類,而且會對人類社會產生深遠的影響。
但強人工智能到底還有多久才會出現,對這個問題的觀點就是千奇百怪了,從5年到100年、甚至認為永遠不會出現的人也有。我們選取了一些Qurora上關于這個問題比較有價值的討論,供大家參考。

計算設備(包括計算機和其他)的計算能力在以指數級增長
Paul King是一名計算神經系統(tǒng)科學家和數據科學家,在醫(yī)學日報、福布斯等多家雜志上刊登過文章。他表示目前強人工智能面臨的最大障礙恰恰是自我建模的能力(這種能力被稱為結構學習)。以下是他的答案:
強AI看起來確實是可行的,但是還需要一段時間。
現階段主要的技術壁壘在于人們對于“結構學習”的認識還不夠深刻,尤其是當它與對世界建模和引導行動相關的時候。
機器學習在“參數學習”上已經做得很好了。當一個問題被人類設計師建模后,機器學習可以很準確的自我調整其中的參數。但是如何一個模型到底是如何被建立起來的呢?這就是“結構學習”:讓機器自己推測出模型的最優(yōu)結構,并且在實測數據與模型不符的時候對模型進行更正。
比如,組成物理環(huán)境的模型中最基本的單元應該是什么呢?常見的有人、樹、汽車和凳子這樣的物體。但是AI怎么在沒有人給它們預先編程的情況下就知道這些東西的含義呢?這是個最基本的例子。而人的大腦就天生能給這些物體的存在賦予準確的理解和定義。結構學習也可以應用在行為指導上,因為與環(huán)境的互動,作為人們與世界交流和“思考”的結果,也必須建立在可以變形、融合和切分的可延伸的元素的基礎上。
一個很值得思考的問題是:我們到底能用現有的電腦算法來解決這個問題,還是必須得對我們的大腦進行徹底的逆向工程研究,然后根據我們得到的東西重新設計一套計算架構和模式才能做到這一點。

現有的深度神經網絡架構
Robert Stone是一位在認知科學和計算機系統(tǒng)方面已經擁有超過35年經驗的研究者。他并沒有從技術細節(jié)上來解釋強人工智能的問題,但給出了一個很有說服力的推論:其實我們的大腦在某種程度上來說就是一個計算能力沒有那么強的強AI,所以由于我們的大腦已經存在,所以在機器中制造出類似東西的可行性是一定存在的。他同時認為,其實人類現在對強AI的需求并沒有那么迫切,人類和弱AI的協同已經能做的非常出色了。
強AI是能夠做到的,但是非常非常難,智能的產生是一個很復雜的過程,包含了很多細小的事件,其中的一些是非常復雜而且在工程學上難以實現的。建造這樣的一個東西不是一件簡單的事。
但是強AI事實上已經在自然中演化出來了,我們最終肯定也是能在機器上實現它的。需要注意的是人類并不是嚴格意義上的思維機器——我們會犯錯,而且經常犯錯——但是在目前這些尚不完美的機器的幫助下,我們就能做得很好了。這意味著如果我們只是想要把什么事做好、讓什么東西充分發(fā)揮它的作用的話,我們完全不需要去制造一臺完美的AI。我們只需要讓這個系統(tǒng)進行各種嘗試,讓它能夠自我提升,并且在犯下錯誤或者做的不夠好的時候能自己意識到這一點。做到這一點在理論上就變得可行多了,只是在實現上仍要費一番功夫而已。我還注意到人類正在面臨一個不確定、不精確、沒有任何事情能被準確預言的宇宙(量子力學認為,未被觀察者觀察到的物體狀態(tài)永遠不會確定,而是以各種可能的疊加態(tài)而存在著),但是從某種程度上來說,我們就是強AI。所以要我說的話,強AI是有可能實現的,如果不能的話,人類就不會是現在這個樣子了。我們估計還在樹上蕩來蕩去。

深度神經網絡的神經元模型
但也有相對冷靜,或者說悲觀的理論:一位從事了十余年軟件開發(fā)的軟件工程師Orange Monkeybat認為強AI即使能夠實現,也離我們還很遠,因為在人們對一件事物并不了解的時候總是會低估實現它的難度。
我只是一個普通的工程師,進行了差不多18年的軟件開發(fā),但是我想在我的工作中我發(fā)現的一些規(guī)律其實可以完美應用在你的問題上。首先是一些關于技術和技術開發(fā)人員的公理:
?。?)當一個問題涉及到大家知之甚少的技術挑戰(zhàn)的時候,人們對能解決它的時間的估計往往會比實際需要的時間少。而且,做出這個估計花費的時間越久,往往這個估計的數值也就錯得越離譜。(在幾個典型的例子里,人們在難題解決時間的估計上甚至少了幾個數量級)
?。?)工程師、程序員、科學家們和其他的技術研究者們聚集在一起的時候永遠會對自己團隊的能力過于樂觀。(原因多種多樣,但總的來說大家都會認為自己是一個非常有智慧的——這個判斷常常會偏高——團隊)
?。?)因為(2)中描述的原因,很多技術工作者會把一些難題看成是很簡單的事,直到他們需要著手解決它,甚至直到他們已經在解決它的努力上付出了很多之后,才會意識到自己的問題。
由于這些公理的存在和大多數人,尤其是那些經常會陷入各種各樣的“確認誤差”的聰明人的表現,我覺得暫時不應該相信那些鋪天蓋地的關于AI的宣傳。
強AI是可能的。我們就在思考,并且有自我的意識,所以我相信我們是能創(chuàng)造出來這種東西的。但是我也相信P/NP問題(克雷數學研究所七個千禧年大獎難題之一,至今未被解決)是可以被解決的。我的意思是,不管是P=NP還是P!=NP,沒理由我們永遠沒法找到問題的答案,我們只是暫時還沒找到罷了。
我的假設是跟解決強AI問題相比,我們解決P/NP問題的時間會早得多,為什么我會這么說呢?因為至少在P/NP問題中我們還能清楚的知道我們知道和不知道的條件有哪些,而我們對AI的認識則要混沌得多。除非我們有一天對AI的認識也像今天對P/NP問題的認識那樣清晰了,不然只會證明我們在這個問題上根本沒有進步多少。
我們現在實際上還并不是很了解“學習”的含義。我們知道深度神經網絡在一定程度上具備了“學習”的能力,但我們其實對體現在哺乳動物上的學習能力幾乎一無所知。而就是因為對于強AI我們現在連“我們不知道什么”都不知道,很多人才會認為我們已經同強AI相當接近了。但是我們如果弄清楚了有多少事是我們以為知道其實根本不了解的,我們的估計就會靠譜很多。比如P/NP問題,我們研究的越多,越覺得我們離解決這個問題遙遙無期。同樣的事也有可能在強AI身上上演。
別誤會了,我是強人工智能的堅定支持者。但當你們正視我們真正了解的知識的時候你就會明白,我們離強人工智能(或者說奇點的到來)仍然很遠。我覺得,就算考慮到技術指數級的增長。
人類的大腦是自然界最神奇的成果之一了?;蛟S我們真的需要等到能對大腦進行徹底的逆向工程的那天才會擁有建造強AI的條件了,至少像工程師Monkeybat說的那樣,我們得先知道我們不知道什么東西。