易語驚人
人類對于人工智能的開發(fā)程度還遠遠沒到達到值得人類擔憂的程度,恰恰相反,人工智能的研究才剛剛起步。某種意義上講,霍金等人其實是在扼殺尚在搖籃之中的人工智能。
近日,著名天體物理學家霍金、特斯拉首席執(zhí)行官埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、Skype聯(lián)合創(chuàng)始人賈安·塔里安、著名語言學家諾姆·喬姆斯基等歐美上百位科技界知名人士聯(lián)名上書,號召禁止人工智能武器。
霍金等人在請愿書中以“人類先知”的口吻警告全人類:繼發(fā)明火藥和核武器之后,能夠在沒有人類干預(yù)下獨立識別并攻擊目標的武器系統(tǒng)的發(fā)展將帶來“第三次戰(zhàn)爭革命”。
顯而易見,霍金等擔憂的核心邏輯在于:一旦誕生了真正的人工智能——即人類思想的全數(shù)字化版本——它將開始自主迅速發(fā)展,并以越來越快的速度重新設(shè)計自己……受限于緩慢生物進化的人類無法與之競爭,最終將被其取代。
果真如此?
事實上,人工智能確實看似正在日新月異,以IBM旗下沃森醫(yī)生為代表的智能機器人正表現(xiàn)出“超人”的能力:從診斷癌癥到辨別人類情緒甚至流暢操作游戲。但是,智能機器人和人類之間的關(guān)系似乎更多的還是助手和主人的關(guān)系。
既然偉大的霍金在其擔憂中談到了“生物進化”,我想不妨拿人工智能與生物學做一個簡單的類比。
眾所周知,生物的重要特征,那都是由親代遺傳至后代,而選擇性培育可以影響這些特征。生物學家曾假設(shè),某種“基因”單位是這種遺傳的媒介,但沒有人知道基因的樣子或者它們是如何起作用的。1953年,詹姆斯·沃森和弗朗西斯·克里克發(fā)表論文描述DNA分子的雙螺旋結(jié)構(gòu),這一謎題得以解決。這個發(fā)現(xiàn)也徹底改變了生物學,此后,就提出什么問題、向什么研究方向努力而言,它使生物學家具備近乎無限大的清晰度。
而事實上,放眼全球,人工智能領(lǐng)域距離開發(fā)出具備人類大腦全部功能的實體,目前至少還缺一個類似詹姆斯·沃森和弗朗西斯·克里克的組合。
正如神經(jīng)科學家加里·馬庫斯所解釋的那樣:“我們知道神經(jīng)細胞的集成與思想元素之間肯定存在某種法則關(guān)系,但是我們目前無法破譯那些法則。”其實,我們?nèi)祟惸壳皩和绾文茉诮佑|很少真實世界的情況下,便如此了解這個世界——這是貓或狗,那是椅子或桌子——也一直沒有明確的答案。我們?nèi)祟惿踔敛⒉淮_切地知道何為“常識”,也極難將其歸納為一套規(guī)則和邏輯語句。
因此,人類對于人工智能的開發(fā)程度還遠遠沒達到值得人類擔憂的程度,恰恰相反,如果和人類在生物學領(lǐng)域取得的成就相比,人工智能的研究才剛剛起步。某種意義上講,霍金等人其實是在扼殺尚在搖籃之中的人工智能。
如果說人工智能是人類未來面對的挑戰(zhàn),那么,當下人類面對的挑戰(zhàn)似乎已經(jīng)足夠多了,全球性經(jīng)濟危機、恐怖主義抬頭、層出不窮的新型疾病等。既然如此,我們何必坐視正在發(fā)生的挑戰(zhàn)不去積極應(yīng)對而過度擔憂遙遠未來的所謂挑戰(zhàn)呢?