自從20年前電腦在國際象棋對(duì)決中敗陣以來,人們一直認(rèn)為至少圍棋上電腦是無法勝過人類的。但在AlphaGo4:1完勝韓國圍棋職業(yè)九段棋手李世石后,人類感受到了人工智能(AI)的進(jìn)化?;蛟S要理解AI的威脅和發(fā)展并不那么容易,但關(guān)于AI的種種都將隨著科技的進(jìn)步而逐漸明朗。日本Livedoor新聞網(wǎng)3月25日的文章里就為大家解開了一些有關(guān)AI的誤區(qū)。
誤區(qū)1:AI一定無法擁有與人類一樣的感性
紐約大學(xué)心理學(xué)家Gary Marcus表示,幾乎所有AI相關(guān)業(yè)者都認(rèn)為,機(jī)械最終會(huì)超越人類。部分對(duì)此抱有懷疑的人多認(rèn)為使AI擁有人類般的感性是不可能的,或是說人腦有一些本質(zhì)上獨(dú)特的東西等等,但這些觀點(diǎn)卻并沒有什么說服力。人類可以說是一種生物機(jī)械,本質(zhì)上與機(jī)械是沒有區(qū)別的,與計(jì)算機(jī)一樣存在于物質(zhì)世界,遵從物理法則。
誤區(qū)2:AI擁有自我意識(shí)
倫敦帝國學(xué)院認(rèn)知機(jī)器人技術(shù)學(xué)家Murray Shanahan指出,不應(yīng)混淆自我與智能這兩個(gè)概念。他表示:“自我意識(shí)確實(shí)是一個(gè)充滿吸引力的主題,但是我認(rèn)為那對(duì)于人類級(jí)別的AI來說是不必要的。更準(zhǔn)確地說,‘意識(shí)’是數(shù)種心理認(rèn)知類的特征,只不過對(duì)于人類來說被歸為了一種。”而且,即便有機(jī)器人讓人類無法分辨它與人類的區(qū)別,我們也不能說它就擁有了自我。
誤區(qū)3:無需畏懼AI
Facebook的CEO馬克?扎克伯格認(rèn)為,我們無需畏懼AI,它們只會(huì)帶給世界各種好處,比如在無人駕駛汽車、新藥開發(fā)等領(lǐng)域。但他并沒有考慮到,AI帶來的不一定都是善。高智能的系統(tǒng)或許在特定的領(lǐng)域無所不能,但在其他的領(lǐng)域則不然。另外,大多機(jī)械系統(tǒng)并沒有完全考慮到安全層面。一旦有類AI的系統(tǒng)被用在不好的方面,后果難以想象。
誤區(qū)4:AI很聰明,所以不會(huì)失敗
牛津大學(xué)Peter McIntyre與Stuart Armstrong認(rèn)為,AI一般受程序控制,不認(rèn)為AI有聰明到可以理解我們期望。他們認(rèn)為:“超級(jí)AI在定義上是在所有領(lǐng)域上都超越人腦的智慧的存在”。“這樣的存在是可以理解我們想讓其所達(dá)到的意圖的”。雖然AI被程序所控制,但如果足夠聰明的話它將能夠理解法的精神與人的意圖。
誤區(qū)5:我們能解決一切AI的控制問題
當(dāng)我們制造出一個(gè)比人類聰明的AI的時(shí)候,我們將面臨能否控制它的問題。比如,事先設(shè)置“應(yīng)該取悅?cè)祟?rdquo;的程序,使其只擁有作為人類的工具的功能,在代碼中寫入對(duì)人類的愛與尊敬這樣的概念等等。另外也有觀點(diǎn)認(rèn)為,為避免其世界觀過于單純,應(yīng)該寫入接受智慧的、文化的、社會(huì)多樣性的程序。但以上都是在想用簡(jiǎn)單的語言來給AI植入人類復(fù)雜的價(jià)值觀。
誤區(qū)6:人類會(huì)被超級(jí)AI毀滅
我們無法斷言AI是否會(huì)毀滅人類或者人類將無法控制AI。牛津大學(xué)哲學(xué)家Nick Bostrom認(rèn)為,真正超級(jí)AI的出現(xiàn)或許是人類所發(fā)明的有史以來最大的危機(jī)。超級(jí)AI想要達(dá)成的目標(biāo)中,可能大多都有消滅人類的理由。但我們無法確定AI會(huì)以什么形式和方式對(duì)人類產(chǎn)生威脅。
誤區(qū)7: 超級(jí)AI是友好的
哲學(xué)家Immanuel Kant認(rèn)為理性與倫理有很強(qiáng)的關(guān)聯(lián)。神經(jīng)學(xué)家David Chalmers在論文中采納了他的觀點(diǎn),用于解釋超級(jí)AI的進(jìn)化:“如果這是正確的,那么可以預(yù)想理性爆發(fā)于倫理爆發(fā)是相連的,那么(超級(jí)AI的)系統(tǒng)會(huì)既聰明又懂倫理,可以預(yù)想將會(huì)是善良的。”但針對(duì)聰明的AI就會(huì)是善良的這一點(diǎn),Armstrong認(rèn)為,“進(jìn)行反倫理行為的聰明人要比不聰明的更易造成大規(guī)模的危害。理性帶給了他們更聰明的為惡的能力而非行善”。某個(gè)主體的目標(biāo)達(dá)成能力與他的目的是否正確無關(guān)。
誤區(qū)8:AI與機(jī)器人技術(shù)的風(fēng)險(xiǎn)是一樣的
這一誤區(qū)源自不少機(jī)器人電影。如果超級(jí)AI想要?dú)缛祟惖脑?,它?yīng)該會(huì)使用更加有效率的方式,比如散播瘟疫、破壞大氣層等等。AI的危險(xiǎn)不在于驅(qū)使機(jī)器人來統(tǒng)治世界,而是其對(duì)世界本身的影響力。
誤區(qū)9:科幻作品所展現(xiàn)的AI的未來是正確的
科幻作品的確展現(xiàn)了許多作家或是未來學(xué)家的想象。但如今超級(jí)AI所導(dǎo)致的問題跟那些完全不同。并且人類與AI在本質(zhì)上的區(qū)別,決定了人類不可能完全了解、預(yù)測(cè)其本質(zhì)與形式。許多的科幻作品為了作品的趣味性,犧牲了許多科學(xué)上的正確性。
誤區(qū)10:被AI接手工作是可怕的
AI能夠自動(dòng)完成工作和AI要?dú)缛祟愂莾纱a事。無疑,AI將會(huì)替換既存的許多工作。但即使如此,并不是說人類無法面對(duì)這種變化了。能從大量的體力腦力勞動(dòng)中解脫出來難道不是人類的目標(biāo)嗎?
總而言之,AI會(huì)產(chǎn)生大量新的生產(chǎn)方式。 隨著AI的進(jìn)化,使用AI進(jìn)行生產(chǎn)的產(chǎn)業(yè)也就會(huì)進(jìn)化。將來,我們的基本需求就會(huì)更容易得到滿足了。