導(dǎo)讀: 人工智能未來(lái)如何,它對(duì)于人類又意味著什么,都是當(dāng)下的熱門(mén)話題。但關(guān)于人工智能,到底有哪些指毫無(wú)根據(jù)的猜測(cè)和論斷?


關(guān)于時(shí)間表的第一個(gè)神話:機(jī)器極大超越人類水平智能需要花多長(zhǎng)時(shí)間?關(guān)于這個(gè)問(wèn)題的一個(gè)常見(jiàn)錯(cuò)誤概念是,我們認(rèn)為機(jī)器超過(guò)人類智能是毋庸置疑的。
我們知道的一個(gè)流行的神話是本世紀(jì)內(nèi)會(huì)有超人人工智能出現(xiàn)。事實(shí)上,歷史充滿了技術(shù)的過(guò)度炒作。那些對(duì)我們?cè)S下承諾的現(xiàn)在會(huì)有的飛行汽車和聚變電站在哪里呢?過(guò)去人工智能也是被反復(fù)夸大,甚至該領(lǐng)域的一些創(chuàng)始人也在夸大。

另一方面,一個(gè)流行的反神話是我們知道本世紀(jì)內(nèi)不會(huì)出現(xiàn)超人類的人工智能。研究者們已經(jīng)從各個(gè)方面估算了超人類人工智能離我們還有多遠(yuǎn),但是由于技術(shù)懷疑論者之前很多關(guān)于技術(shù)的悲觀語(yǔ)言都沒(méi)有實(shí)現(xiàn),所以我們還是無(wú)法斷定本世紀(jì)內(nèi)不會(huì)有超人類人工智能。
還有一些調(diào)查問(wèn)了研究者們按至少50%的概率算,人類水平的人工智能距離我們還多少年。所有的這些調(diào)查都有同樣的結(jié)論:世界頂級(jí)專家們的意見(jiàn)不一致,所以我們根本不知道答案。例如,在2015波多黎各人工智能大會(huì)(2015 Puerto Rico AI conference)上的一次人工智能研究者意向調(diào)查中,平均(中位數(shù))的答案是2045年,但一些研究人員猜測(cè)需要幾百年或更長(zhǎng)時(shí)間。
還有一個(gè)神話是,擔(dān)心人工智能的人認(rèn)為要不了幾年,上述預(yù)言都能實(shí)現(xiàn)。但事實(shí)上,根據(jù)記錄大多數(shù)擔(dān)心超人類人工智能的人認(rèn)為至少還需要幾十年才能實(shí)現(xiàn)這些預(yù)言。但是這些人強(qiáng)調(diào)只要我們不是100%肯定本世紀(jì)不會(huì)出現(xiàn)超人類人工智能,最好還是要為意外啟動(dòng)安全研究。很多涉及人類水平人工智能的安全問(wèn)題都很棘手,需要幾十年才能解決。所以,現(xiàn)在就要開(kāi)始研究安全技術(shù),而不是等到一些程序員灌了幾瓶紅牛決定開(kāi)啟這些可能對(duì)人造成巨大傷害的人工智能的前一晚才開(kāi)始著手研究安全措施。
爭(zhēng)議的神話
另一個(gè)常見(jiàn)的錯(cuò)誤概念是擔(dān)心人工智能并擁護(hù)人工智能安全研究的人都是那些對(duì)人工智能不甚了解的盧德派。當(dāng)標(biāo)準(zhǔn)人工智能教科書(shū)(人工智能:一個(gè)現(xiàn)代化的方法,Artificial Intelligence:A Modern Approach)作者Stuart Russell在波多黎各人工智能大會(huì)演講中提到這個(gè)觀點(diǎn)時(shí),引來(lái)了下面觀眾的放聲大笑。支持人工智能安全研究本身就有巨大爭(zhēng)議。事實(shí)上,為了支持一個(gè)適度投資人工智能安全研究,不需要讓人們相信人工智能會(huì)帶來(lái)高風(fēng)險(xiǎn),只要讓他們知道安全研究不是可忽略的就行了。就像如果你想讓一戶家庭購(gòu)買(mǎi)家庭保險(xiǎn),只要向他們證明房屋火災(zāi)不是不可能發(fā)生的就行了。

也許是媒體讓人工智能安全爭(zhēng)論看起來(lái)比現(xiàn)實(shí)更加具有爭(zhēng)議。畢竟,恐懼是可以賣(mài)錢(qián)的,用斷章取義的引用來(lái)宣告厄運(yùn)迫在眉睫的文章能產(chǎn)生比平衡各方觀點(diǎn)的客觀性言論能產(chǎn)生更多的點(diǎn)擊。結(jié)果是,從媒體文章的引用中獲取觀點(diǎn)的兩個(gè)人只知道對(duì)方的觀點(diǎn)很可能是想法上的分歧比較多。比如,一個(gè)技術(shù)懷疑論者只看了英國(guó)某小報(bào)報(bào)道的比爾蓋茨的某些觀點(diǎn)就錯(cuò)誤的認(rèn)為蓋茨相信超級(jí)智能迫在眉睫。類似的還有,支持有益的人工智能運(yùn)動(dòng)的人可能就只知道吳恩達(dá)說(shuō)過(guò)自己不擔(dān)心人工智能就像不擔(dān)心火星人口過(guò)剩,這樣的人或許會(huì)錯(cuò)誤地認(rèn)為吳恩達(dá)毫不關(guān)心人工智能安全問(wèn)題,但是事實(shí)是,吳恩達(dá)關(guān)心這個(gè)問(wèn)題。問(wèn)題的癥結(jié)在于因?yàn)閰嵌鬟_(dá)的時(shí)間表估算的太長(zhǎng)了,所以相較于長(zhǎng)期問(wèn)題,他很自然地傾向于優(yōu)先考慮短期內(nèi)人工智能面臨的挑戰(zhàn)。
關(guān)于超人類人工智能風(fēng)險(xiǎn)的神話
「Stephen Hawking警告機(jī)器人的崛起可能是人類的災(zāi)難?!箍吹竭@樣的標(biāo)題,很多人工智能研究者都會(huì)翻白眼。很多人都記不清看過(guò)多少類似的文章了。通常來(lái)說(shuō),這些文章都都會(huì)描述到一個(gè)拿著武器面目可憎的機(jī)器人,并建議我們要擔(dān)心機(jī)器人崛起后會(huì)殺了人類,因?yàn)樗鼈冮_(kāi)始有了意識(shí)變得邪惡起來(lái)。樂(lè)觀點(diǎn)說(shuō),這類文章著實(shí)讓人印象深刻,因?yàn)樗麄兒?jiǎn)明扼要地總結(jié)了人工智能研究者不會(huì)擔(dān)心的情景,這個(gè)情景結(jié)合了三個(gè)獨(dú)立的錯(cuò)誤概念:對(duì)意識(shí)、邪惡和機(jī)器人的憂慮。
事實(shí)上,如果你被一輛無(wú)人駕駛車撞了,那么它是否有主觀意識(shí)對(duì)你來(lái)說(shuō)意義也不大。同樣地,會(huì)影響我們?nèi)祟惖氖浅?jí)智能人工智能會(huì)做什么,而不是它的主觀感受如何。
害怕機(jī)器會(huì)變成魔鬼是另一種不相干的憂慮。真正需要擔(dān)心的不是它的惡意,而是能力。定義中的超級(jí)智能人工智能擅長(zhǎng)達(dá)到任何目標(biāo),所以我們需要確保的是讓它的目標(biāo)始終與我們的目標(biāo)一致。人類一般不討厭螞蟻,但是我們比它們聰明太多,所以如果我們想建一座水電站大壩時(shí)有一座蟻山在那里,那就對(duì)螞蟻來(lái)說(shuō)太糟了。有益的人工智能運(yùn)動(dòng)的目標(biāo)是避免將人類置于螞蟻的地位。
對(duì)意識(shí)概念的誤解與機(jī)器沒(méi)有目標(biāo)的神話有關(guān)。機(jī)器顯然能有狹義上的目標(biāo)——做出目標(biāo)導(dǎo)向的行為,比如,熱跟蹤導(dǎo)彈被最簡(jiǎn)潔地解釋為以擊中目標(biāo)為目標(biāo)。如果你感到被一臺(tái)目標(biāo)和你不一致的機(jī)器威脅了,而給你帶來(lái)的麻煩的正好是狹義上的目標(biāo),不是機(jī)器是否有意識(shí),也不是它感受到的目標(biāo)感。如果熱跟蹤導(dǎo)彈正在追蹤你,你大概不會(huì)辯解:「我不擔(dān)心,因?yàn)闄C(jī)器沒(méi)有目標(biāo)!」
我同情Rodney Brooks和其他被聳人聽(tīng)聞的小報(bào)妖魔化的機(jī)器人先驅(qū),這對(duì)他們不公平,因?yàn)橐恍┯浾呖雌饋?lái)總是盯著機(jī)器人不放,在文章中把機(jī)器人描繪成長(zhǎng)著紅色眼睛面目猙獰的金屬怪獸。事實(shí)上,有益的人工智能運(yùn)動(dòng)主要關(guān)心不是機(jī)器人而是智能本身:尤其是與我們目標(biāo)不一致的智能。給我們帶來(lái)麻煩與我們目標(biāo)不一致的超人類人工智能不需要機(jī)器人身體,僅僅是一個(gè)互聯(lián)網(wǎng)連接或許就能智勝金融市場(chǎng),在發(fā)明上超越人類研究員、操縱人類領(lǐng)袖、甚至設(shè)計(jì)出我們無(wú)法理解的武器。即便造不出一個(gè)這樣的實(shí)體機(jī)器人,一個(gè)超級(jí)智能和超級(jí)富有的人工智能也可以很容易地收買(mǎi)或操縱許多人,讓他們?cè)诓恢挥X(jué)中按照它的意思做事。
這個(gè)機(jī)器人誤解還與機(jī)器不能控制人類的神話有關(guān)。智能可以實(shí)現(xiàn)控制:人類控制老虎不是因?yàn)槲覀兏鼜?qiáng)壯,而是因?yàn)槲覀兏斆?。這意味著,如果我們放棄人類作為地球上最聰明物種的地位,我們也就可能放棄了控制權(quán)。