導(dǎo)讀: AI帶來(lái)的真正危險(xiǎn)——至少在近期內(nèi)——是更為隱蔽的。相比機(jī)器人獲得自主意識(shí)而主動(dòng)反抗人類(lèi)的命令并崛起,更有可能發(fā)生的情況是,它們?cè)趫?zhí)行人類(lèi)的命令時(shí)無(wú)意地傷害了人類(lèi)或者帶來(lái)麻煩。正因?yàn)檎J(rèn)識(shí)到了這一點(diǎn),加州大學(xué)伯克利分校本周成立了一個(gè)研究中心,專(zhuān)門(mén)研究如何建立對(duì)人類(lèi)友好的AI。

“相比機(jī)器人主動(dòng)反抗人類(lèi)的命令,更有可能發(fā)生的情況是,它們?cè)趫?zhí)行人類(lèi)的命令時(shí)無(wú)意地傷害了人類(lèi)或者帶來(lái)麻煩。”
我們看到人工智能的崛起時(shí),很容易進(jìn)入反烏托邦主義的情節(jié)之中,認(rèn)為有意識(shí)的機(jī)器會(huì)起來(lái)反抗創(chuàng)造了它們的人類(lèi)??苹米髌分谐霈F(xiàn)的反面角色,如《終結(jié)者》里的 “天網(wǎng)”和《2001:太空漫游》中的哈爾,要對(duì)人類(lèi)的這種情節(jié)負(fù)責(zé)。
但是,AI帶來(lái)的真正危險(xiǎn)——至少在近期內(nèi)——是更為隱蔽的。相比機(jī)器人獲得自主意識(shí)而主動(dòng)反抗人類(lèi)的命令并崛起,更有可能發(fā)生的情況是,它們?cè)趫?zhí)行人類(lèi)的命令時(shí)無(wú)意地傷害了人類(lèi)或者帶來(lái)麻煩。正因?yàn)檎J(rèn)識(shí)到了這一點(diǎn),加州大學(xué)伯克利分校本周成立了一個(gè)研究中心,專(zhuān)門(mén)研究如何建立對(duì)人類(lèi)友好的AI。
本周新成立人類(lèi)友好型AI研究中心,由開(kāi)放慈善項(xiàng)目贊助550萬(wàn)美元作為啟動(dòng)資金,由計(jì)算機(jī)科學(xué)教授、人工智能先驅(qū)Stuart Russell領(lǐng)導(dǎo)。他迅速澄清了研究方向與科幻小說(shuō)所描述的威脅之間“無(wú)理的、聳人聽(tīng)聞的”關(guān)聯(lián)。
“危險(xiǎn)不會(huì)來(lái)自于機(jī)器突然發(fā)展出的惡意的自主意識(shí),”他說(shuō),“重要的是你要知道,我們不是要阻止這樣的事,因?yàn)槲覀儗?duì)于意識(shí)本身是什么還一無(wú)所知。”
Russell在人工智能領(lǐng)域聲名遠(yuǎn)揚(yáng),他在2015年發(fā)表了一份公開(kāi)信,號(hào)召研究者超越增強(qiáng)AI能力的研究目標(biāo),并考慮如何讓AI在社會(huì)上發(fā)揮有益的影響。這份公開(kāi)信已經(jīng)有超過(guò)8000位科學(xué)家和企業(yè)家在上面簽名,其中包括物理學(xué)家史蒂芬·霍金、企業(yè)家埃隆·馬斯克和蘋(píng)果公司合伙人史蒂夫·沃茲尼克。
“(AI研究)可能帶來(lái)的好處是巨大的,因?yàn)槿祟?lèi)文明發(fā)展的終極產(chǎn)品是人類(lèi)的智能;我們無(wú)法預(yù)測(cè)我們通過(guò)AI提供的工具來(lái)放大我們的智慧能夠達(dá)到什么樣的成就,但起碼消除貧困和疾病是不難想象的。”公開(kāi)信中這樣寫(xiě)道。
“由于AI具有極大的潛力,因此重要的是研究如何從它身上獲得幫助,同時(shí)還要避免可能出現(xiàn)的隱患。”
正是這樣的想法,促成了這個(gè)新成立的研究中心。
到現(xiàn)在為止,AI主要被應(yīng)用于非常有限的環(huán)境中,如下國(guó)際象棋和圍棋、識(shí)別圖片中的物體,在這些應(yīng)用環(huán)境中AI能夠造成的破壞和傷害是非常有限的。如果AI開(kāi)始在現(xiàn)實(shí)世界中做出關(guān)于我們切身利益的決定,這種風(fēng)險(xiǎn)就會(huì)高得多。
“一旦你把AI放到真實(shí)世界中,放到無(wú)人駕駛汽車(chē)、數(shù)字助理等應(yīng)用中……當(dāng)AI開(kāi)始幫你購(gòu)買(mǎi)對(duì)你利益有影響的物品、幫你取消約會(huì)時(shí),它們的價(jià)值觀立場(chǎng)必須保證和人類(lèi)一致。”Russell說(shuō)。
他舉自動(dòng)駕駛汽車(chē)為例,說(shuō)明他們研究中心試圖解決的問(wèn)題。假設(shè)一個(gè)人在設(shè)計(jì)自動(dòng)駕駛汽車(chē)系統(tǒng)時(shí),設(shè)定了不允許闖紅燈的規(guī)則,但這個(gè)智能系統(tǒng)可能會(huì)黑進(jìn)交通燈的控制系統(tǒng),讓所有交通能變綠。這樣的話,這個(gè)無(wú)人駕駛汽車(chē)的智能系統(tǒng)雖然按照規(guī)則行事,但顯然不是人類(lèi)希望的結(jié)果。類(lèi)似地,為一個(gè)套利基金設(shè)計(jì)的人工智能,被設(shè)置為讓其投資組合的價(jià)值最大化,可能會(huì)被短期消費(fèi)型股票刺激,而長(zhǎng)期持有國(guó)防類(lèi)股票,然后引起戰(zhàn)爭(zhēng)——如 WernerHerzog最新的紀(jì)錄片中埃隆·馬斯克表達(dá)的那樣。

“甚至當(dāng)你認(rèn)為已經(jīng)通過(guò)防御系統(tǒng)限制了你的AI系統(tǒng)能做的事時(shí),它還可能會(huì)在其中找到漏洞,就像人們總會(huì)找到法律的漏洞進(jìn)行偷稅漏稅一樣。你會(huì)希望AI系統(tǒng)不要主動(dòng)尋找規(guī)則的漏洞。”Russell說(shuō)。
“問(wèn)題不在于意識(shí),而在于權(quán)限。我們賦予機(jī)器很大的權(quán)限,希望它來(lái)完成某個(gè)目標(biāo),但它在完成目標(biāo)的過(guò)程中可能會(huì)引起災(zāi)難。”
為了應(yīng)對(duì)這些問(wèn)題,Russell和研究中心的同事打算讓AI系統(tǒng)觀察人類(lèi)的行為,并嘗試?yán)斫馊祟?lèi)的真正目的是什么,然后根據(jù)人類(lèi)的目的來(lái)行事,并且從失誤中吸取經(jīng)驗(yàn)。摒棄了為機(jī)器提供一長(zhǎng)串需要遵守的規(guī)則的做法,他們只告訴機(jī)器主要的目標(biāo)就是做人類(lèi)想讓他們做的事。
這聽(tīng)起來(lái)很簡(jiǎn)單,但這是過(guò)去的50年來(lái)工程師從未嘗試過(guò)的建立系統(tǒng)的方式。
不過(guò)如果AI系統(tǒng)被設(shè)計(jì)為用這種方式學(xué)習(xí)人類(lèi)的目標(biāo),就能夠保證它們一直處于人類(lèi)的控制之下,即使它們的能力已經(jīng)超過(guò)人類(lèi)。
除了通過(guò)攝像頭等感應(yīng)器直接觀察人類(lèi),機(jī)器人還能通過(guò)閱讀歷史文獻(xiàn)、法律檔案、小說(shuō)、報(bào)紙,甚至觀看視頻和電影等方式來(lái)了解人類(lèi)。它們能夠從中建立起對(duì)人類(lèi)價(jià)值觀的理解。
這對(duì)機(jī)器來(lái)說(shuō)不是容易的事。“人類(lèi)是非理性的、不連續(xù)的、意志不堅(jiān)定的、計(jì)算能力有限的、混雜的并且有時(shí)候是十分邪惡的。”Russell說(shuō)。
“一些人是素食主義者,另一些人卻愛(ài)吃多汁的牛排。我們的表現(xiàn)從來(lái)不能接近完美,這個(gè)事實(shí)是我們研究中的一個(gè)難點(diǎn)。”