世上不存在普遍的道德規(guī)劃 這種情況如何約束AI?
問:機器人倫理學(xué)家是做什么的?
Alan Winfield:我認(rèn)為對這一職業(yè)最簡單最概況的總結(jié)就是,機器人倫理學(xué)家就是那些為機器人和人工智能的倫理和社會影響及其后果而擔(dān)憂的人。所以,從某種程度上說,我是一個專業(yè)的擔(dān)憂者。
問:機器人倫理學(xué)是關(guān)于我們?nèi)绾问褂脵C器人的倫理道德規(guī)范,還是機器人自身行為的道德準(zhǔn)則?
Alan Winfield:這兩個都是,我大部分的工作涉及的是前者。換句話說,就是探尋人類——包括人類工程師、機器人制造商和維護(hù)者、維修人員等等,也就是每個與人工智能和機器人有關(guān)的人,應(yīng)該如何采取負(fù)責(zé)任和道德的行為,盡量減少人工智能和機器人對我們的社會,我們每一個人以及我們的星球帶來的不必要的道德后果和危害,如果人們愿意的話。
你剛才提到的第二點,人工智能和機器人行為的道德準(zhǔn)則,這更像是一個研究問題。它沒有第一個問題那樣緊迫性,而且它確實是一個非常有趣的問題。我正在研究的問題之一就是我們?nèi)绾蝿?chuàng)造出合乎倫理道德的機器人。
問:合乎倫理的機器人,是不是可以理解為機器人本身就是一個道德主體?
Alan Winfield:是的,可以這么說。但是請記住,目前,唯一的完整意義上的道德主體是像你我一樣的成年人類,當(dāng)然不是所有的人類,是心智健全的成年人類。當(dāng)然,我們并不能人工建立一個類似的道德主體,所以,我們目前能做到的就是在有限的意義上建立較低級別的道德機器人,它們可以根據(jù)特定的倫理規(guī)則來選擇它們的行為。但是,不像你我,它們不能決定是否要遵守道德,當(dāng)然也不能在事后證明它們自己的行為是正確的。
問:當(dāng)你想到未來,關(guān)于道德主體,甚至是我們?nèi)绾蔚赖碌厥褂脵C器人時,你如何看待這樣一個事實——即沒有兩個人能在所有倫理問題上達(dá)成一致?也就是說,在這個世界上,人們關(guān)于什么是道德行為,什么是不道德行為的定義是不同的。所以,你不是在向一個最初就定義不明確的目標(biāo)射擊嗎?
Alan Winfield:當(dāng)然,確實有這個問題。就像你說的,并不存在單一的、普遍的道德規(guī)范,即使是在某一個特定的傳統(tǒng)中也沒有,比如說,在西方的倫理傳統(tǒng)中,就有很多道德規(guī)范,無論是結(jié)果主義倫理,還是道義、道德,都是很復(fù)雜的。但我想說的是,你可以把所有這些都抽象出來,有一些非常簡單的原則大多數(shù)人都會同意,比如,機器人不應(yīng)該傷害人,也不應(yīng)該見人受到傷害而袖手旁觀。
這恰好是阿西莫夫機器人第一定律,我認(rèn)為以此作為起點相當(dāng)明智。阿西莫夫的機器人第一定律是通用的,但是,我想說的是,我們可能只會采用非常少的倫理道德規(guī)范,即使它們不是普遍的,也要能引起人們廣泛的關(guān)注和認(rèn)同。
問:然而,在人工智能領(lǐng)域,有大量的資金被用于這一方面,對嗎?例如,在軍隊中使用的機器人,特別是,包括那些實際上正在做,或者是被設(shè)計用來殺人和給人類帶來傷害的機器人,所以,我們這個看似很明確的起點甚至都不能實現(xiàn)。
Alan Winfield:的確,人工智能和任何技術(shù)的武器化都是我們都應(yīng)該關(guān)注的問題。我的意思是,你是對的,現(xiàn)實世界中有武器。但這并不意味著我們不應(yīng)該為實現(xiàn)一個技術(shù)沒有被武器化的更好的世界而努力。是的,這是一個理想主義的觀點,但是機器人倫理學(xué)家就是理想主義者。
問:地雷是不是一個使用了人工智能的、被設(shè)計用來殺人的機器?如果人工智能檢測到物體重量超過了45磅,就會運行爆炸的程序,那么它是一個能夠自行做出殺人決定的機器人嗎?
Alan Winfield:在某種程度上,我認(rèn)為你可以說這是一個自動測量計,或者說是自動機。它有一個傳感器——也就是一個能感知重量的裝置——和一個致動器,由此觸發(fā)爆炸程序。但事實是,地雷是一種可怕的武器,早就應(yīng)該被禁止,而且大部分已經(jīng)被禁止了,當(dāng)然,全世界仍在清除地雷。
從大腦到思想再追溯到意識
問:談?wù)劙紫伋惭?,白蟻們不知道它們在做什么,它們沒有一個明確的、有始有終的任務(wù)。如果所有這些都是真的,那么人類的思維就不應(yīng)該是一個涌現(xiàn)性現(xiàn)象,因為我們確實有目標(biāo),我們知道我們在做什么。
Alan Winfield:嗯,我不完全同意這個觀點。我的意思是,我們的確認(rèn)為我們知道自己在做什么,但這很可能是一種幻覺,只是不管怎樣,我們都會堅持下去。
問:這是一個很好的切入點,所以,你指的是我們本能地做某件事,然后我們的大腦就會開始思考我為什么要這樣做,然后它會逆轉(zhuǎn)這兩件事的順序然后說,“是我決定這么做的。這就是我為什么要這么做的原因。”
Alan Winfield:我的意思是,這可能正確,也可能不正確。但我真正想說的是,當(dāng)你談?wù)撊祟惖男袨?,目?biāo),動機等等時,你真正看到的是一個非同尋常的、多層次過程的最頂層,我們不能真正理解整個過程。我的意思是,在較低層次的過程之間,存在巨大的鴻溝,這些也是我們所不能理解的,換句話說,就是單個神經(jīng)元之間的相互作用,以及意識的涌現(xiàn)性,主觀經(jīng)驗,知覺等等。
這個過程有很多個層次,而最頂層,也就是人類的行為,也是通過語言和文化來調(diào)節(jié)的,我們不能忽略這一點。你和我在一百萬年前可能就不會有這樣的對話了。重點是,我們現(xiàn)在可以思考和討論的東西,如果沒有這個特殊的、存在于大多數(shù)人類的頭腦中的文化體系,我們就不能討論這些了。
我們是社會性的動物,這是另一種涌現(xiàn)性。先有意識的涌現(xiàn)性,然后是心智,然后形成了社會的涌現(xiàn)性,到最后就是文化的涌現(xiàn)性。在這中間的某個地方,存在著語言。所以,當(dāng)你開始問像“是的,但是這樣一個涌現(xiàn)性系統(tǒng)怎么能有目標(biāo),有任務(wù)呢?”這樣的問題時,我認(rèn)為很難分離出其中的某一個方面。也許,現(xiàn)代人類在這個特定的文化中確實擁有——也許更確切地說——我們認(rèn)為的目標(biāo)和動機,但是誰知道這真正是什么呢?我想我們可能不需要向前追溯幾十或幾百代人,去發(fā)現(xiàn)我們的目標(biāo)和動機和大多數(shù)動物沒有什么不同,而這些動物只是為了填飽肚子,為了生存。
問:所以,讓我們從大腦到思想再追溯到意識。也許在一百萬年前,你是對的,但有些人會堅持認(rèn)為,當(dāng)我們有意識之后,本質(zhì)上,那就是我們開始變得主動,開始有目標(biāo)和意圖的時候。所以,我會問你一個無法回答的問題,你認(rèn)為意識是如何產(chǎn)生的?
Alan Winfield:我當(dāng)然認(rèn)為這是一種涌現(xiàn)特性,但我認(rèn)為這是一種很好的適應(yīng)性特征,而且我認(rèn)為意識的出現(xiàn)只是一場偶然。但我認(rèn)為這是一種有價值的適應(yīng),因此,在我們的進(jìn)化史上——可能是最近的進(jìn)化歷史——有些人開始喜歡引人注目,喜歡作為主體,享受在這個世界上作為獨立個體的主觀體驗,我懷疑他們比他們的同類有更強的適應(yīng)性,而其他人沒有這種特點。
我認(rèn)為意識的出現(xiàn)與人類之間的交際行為密切相關(guān)。我認(rèn)為,為了成為社會性動物,我們必須有心智理論。要想成為一個成功的社會動物,你需要能夠駕馭人際關(guān)系和社會等級制度的復(fù)雜性,以及等級排序等等。
我們知道,黑猩猩在我們所謂的“權(quán)術(shù)主義智慧(Machiavellian intelligence)”方面確實相當(dāng)老練。換句話說,有了這種社會智慧,你會故意地,操縱你的行為以獲得一些社會優(yōu)勢。換句話說,我假裝想要了解你,不是因為我真的想了解你,而是因為我知道你和某個人是朋友,而我真的很想和她做朋友。這就是權(quán)術(shù)主義智慧。黑猩猩似乎很擅長這一方面,而且可能和我們?nèi)祟愐粯由瞄L。
為了能夠擁有這種權(quán)術(shù)主義智慧,就需要有心智理論。心智理論意味著你對自己的同類有一個非常復(fù)雜的概念?,F(xiàn)在,我認(rèn)為,反過來,是由于我們有復(fù)雜的身體,難以控制的身體,因此,我們,在我們的進(jìn)化史上的早期,開始有相當(dāng)復(fù)雜的身體自我形象。換句話說,也就是一個內(nèi)部的模擬,或者稱之為,一個我們自己身體的內(nèi)部模型。
當(dāng)然,擁有自己的身體模型的美妙之處在于,你也會自動擁有一個同類的模型。所以,我認(rèn)為,是由于一種自我模式的引導(dǎo),讓我們有了心智理論。然后,我想,一旦你有了心智理論——我不知道從什么時候開始——我們就可以開始相互模仿,換句話說,就是做社會學(xué)習(xí)。
我認(rèn)為社會學(xué)習(xí)是現(xiàn)代思想進(jìn)化的又一個巨大的進(jìn)步。我的意思是,社會學(xué)習(xí)比個人學(xué)習(xí)更有力量。然后這種傳遞知識的能力會從祖先傳給后代,特別是在人們發(fā)明了寫作、符號和語言之后,寫作當(dāng)然是很久以后的事了,但是我認(rèn)為所有這些都是必要的,但也許還不足以滿足產(chǎn)生意識的先決條件。我的意思是,這很有趣,我不知道你是否知道朱利安·杰恩斯的書。
問:當(dāng)然知道《二分心智》,直到公元前500年我們才有自我意識,而希臘諸神和神諭的興起,只是因為我們意識到了我們已經(jīng)失去了過去在頭腦中能夠聽到的聲音。
Alan Winfield:我認(rèn)為這是一個激進(jìn)的假設(shè)。沒有多少人相信這個觀點。但我認(rèn)為這是非常有趣的,這種觀點認(rèn)為現(xiàn)代的意識可能是最新的一種適應(yīng)性,記錄了從荷馬史詩時代以來的歷史。所以,我認(rèn)為,可能永遠(yuǎn)不會有人知道意識是如何進(jìn)化的。就像很多自然歷史一樣,我們只能有“原來如此”的故事,我們只能有可信度或高或低的假設(shè)。
但我堅決相信產(chǎn)生意識的關(guān)鍵的先決條件是內(nèi)部模型。Dan Dennett提出過一個概念框架,他稱之為“Tower of Generate-and-Test”,基于這個概念的生物都能非常復(fù)雜的方法來產(chǎn)生并測試關(guān)于它們接下來采取什么行動的假設(shè)。其中的波普式造物(Popperian creatures)理論,提到生物有一種神奇的創(chuàng)新,它能夠在做某件事之前想象出其行動的結(jié)果。因此,他們可以意識到某個行為是糟糕的,并決定不去嘗試,因為這很可能是非常危險的。
他還提出,波普式造物的一個子類就是格列高利式造物(Gregorian creatures),這一類型下的生物發(fā)明了思維工具,比如語言,因此有了這種額外的非凡的能力,可以從其它生物那里相互學(xué)習(xí)。我認(rèn)為,社會學(xué)習(xí)和心智理論在意識的出現(xiàn)中是很重要的。當(dāng)然,我也會大膽地說,我認(rèn)為獨居的動物并不具備你和我所擁有的那種意識。
問:所以,也就是說,我們不知道意識是怎么來的,并且你剛才說我們可能永遠(yuǎn)也不會知道。但實際問題還要棘手得多,因為我們不知道的不僅僅是意識的由來,我們也沒有任何科學(xué)來闡釋我們是如何感覺到某種東西的,我們又怎么能體驗到一些東西而不是僅僅感覺到它呢?那么,你認(rèn)為我們的“主觀體驗”到底是什么呢?
Alan Winfield:這是一個非常復(fù)雜的問題。我之前提到的只是一個非常小的前提條件,我不是說這就是“什么是意識”的答案。有一些關(guān)于意識的有趣理論。比如說,我很喜歡托馬斯·梅辛格(Thomas Metzinger)的理論,我認(rèn)為至少對我來說是一個非常有吸引力的意識理論,因為它是建立在內(nèi)部自我模型的基礎(chǔ)上的,我已經(jīng)指出我對自我模型很感興趣,而且對他提出的自我模型的概念很感興趣。
現(xiàn)在,正如你所說的,我們的誤解中存在著巨大的鴻溝,我們甚至都不知道應(yīng)該問什么問題,更不用說回答了,但我認(rèn)為我們正在慢慢地靠近真相。我認(rèn)為人類在意識研究方面正在取得進(jìn)步。我的意思是,安尼爾·賽斯(Anil Seth)在這方面的研究也非常有趣。
問:很多時候,當(dāng)人們看到人類的大腦時,他們會說,“嗯,我們不理解它的原因是因為它有一千億個神經(jīng)元。”然而,人們已經(jīng)努力了二十年,將線蟲的302個神經(jīng)元取出來,并試著創(chuàng)造一種數(shù)字化的生活,將其模型化,盡管我們能復(fù)制出一個擁有300個神經(jīng)元的大腦,我們根本不能理解大腦是如何工作的。甚至有些人認(rèn)為單個神經(jīng)元可能和超級計算機一樣復(fù)雜。你怎么看?為什么我們不能理解線蟲的大腦是如何工作的呢?
Alan Winfield:當(dāng)然,“理解”是一個多層次的東西。在某種程度上,我們能夠理解線蟲的神經(jīng)系統(tǒng)是如何工作的。我的意思是,我們可以理解,這是真的。但是,和所有的科學(xué)一樣,“理解”或者科學(xué)模型在某種程度上是抽象的。如果你想深入了解,提高理解的程度,我想這就是開始遇到困難的時候。
因為正如你所說的,當(dāng)我們用計算機模擬線蟲時,我們不能以完全的保真度模擬出每一個單獨的神經(jīng)元。為什么不能呢?不僅因為它非常復(fù)雜,還因為我們還不能完全理解一個生物神經(jīng)元的所有內(nèi)部過程。但這并不意味著我們不能,在一些有用的、有意義的抽象層面上,弄清楚對某一特定感覺器官的刺激將會導(dǎo)致某一特定的連鎖反應(yīng),于是會導(dǎo)致肌肉的抽搐。我們當(dāng)然可以做到這一點。
除了人類,誰還擁有意識?
問:你寫了一篇名為Robots with Internal Models: A Route to Self-Aware and Hence, Safer Robots的論文,你在剛才也提到過內(nèi)部模型。你在論文中反復(fù)提到三個術(shù)語。第一個是自我意識(self-awareness)。你提到了蓋洛普的紅點測試,這個測試可以證明“我就是我自己”。我可以在鏡子里看到一個人額頭上有一個紅點,我知道那是我,我會試著把它從我的額頭上抹去。這就是自我意識的概念。第二個術(shù)語是感覺(sentience),當(dāng)然它經(jīng)常被誤用,感覺當(dāng)然是指能夠感知一些東西,通常是感覺疼痛。第三個是意識(consciousness),也就是,“我經(jīng)歷過某件事。”自我意識是否意味著感覺,而感覺是否意味著有意識?或者自我意識只是自我意識,不是感覺或意識?
Alan Winfield:我不認(rèn)為這是絕對的。換句話說,我認(rèn)為所有這些都是有一定程度的。我的意思是,即使是簡單的動物也要有一些有限的自我意識。我認(rèn)為最簡單的一種自我意識,就是所有動物都需要能夠分辨出自己和其它動物不同。如果不能分辨出自己和其它動物之間的區(qū)別,那么它會很難在這個世界上生存。
現(xiàn)在,我認(rèn)為這是一種非常有限的自我意識,盡管我不會因為那些低級動物能夠區(qū)分自己和其它動物之間的區(qū)別,就說它們有感覺或意識。所以,我認(rèn)為這些東西都是有程度的。
意識也是分程度的,毋庸置疑,人類的某些屬性是獨特的。我們幾乎肯定是地球上唯一能夠思考“思考”這件事的動物。也就是反身的能力,能夠自己給自己提出問題。
但是,即使黑猩猩可能不能思考“思考”這件事本身,我認(rèn)為它是有意識的。它們顯然有很多其它的意識屬性。不僅是黑猩猩,還有其它動物,能夠很明顯地感覺到疼痛,或者感到悲傷,感到難過。當(dāng)某個動物家族的成員死亡或被殺死時,其它動物的反應(yīng)能夠證明它們有意識。而且有很多動物,我們幾乎本能地感覺到它們有很高程度的意識。海豚就是一個例子。而最令人費解的動物,是章魚。
問:那么植物呢?植物是否有自我意識、感覺、知覺或意識?
Alan Winfield:這個問題問得好。當(dāng)然,植物是有智慧的。這里用“智能(intelligence)”這個詞可能更合適。但是,這也許只是一種有限形式的自我意識,一種非常有限的感覺,因為從某種意義上說,植物確實能感知周圍的環(huán)境。植物,樹木,顯然對鄰近植物或害蟲的攻擊有一定的感知和反應(yīng),而且似乎能夠作出反應(yīng),保護(hù)自己和周圍的同種個體。
所以,植物的行為,植物的智慧,是非常復(fù)雜的,才剛剛開始被我們理解。我有一個朋友,Danny Chamovitz,他是以色列特拉維夫大學(xué)的生物學(xué)家,他寫了一本關(guān)于植物智能的很棒的書,非常值得一讀。
問:你不可能把人類大腦放到顯微鏡下然后說,“這些東西是有意識的。”所以,我想,詹姆斯·洛夫洛克(蓋亞假說的提出者)會注意到——我不知道他在這個問題上的立場是什么——地球自身在狹窄的范圍內(nèi)控制了如此多的屬性。我再問你一個問題?;ヂ?lián)網(wǎng)呢?互聯(lián)網(wǎng)是否有可能實現(xiàn)某種意識或自我意識?我的意思是,它肯定有足夠的處理器。
Alan Winfield:我想也許這個問題的答案,我只是剛剛才思考這個問題,我認(rèn)為答案是否定的。我不認(rèn)為互聯(lián)網(wǎng)是自我意識。我認(rèn)為,這與我不認(rèn)為地球或者這個星球有自我意識是同一個原因,盡管它,正如你說的,是一個驚人的自我調(diào)節(jié)系統(tǒng)。但我認(rèn)為,自我意識和感知能力,以及對其它事物的意識,不僅需要高度互聯(lián)的網(wǎng)絡(luò),它們還需要正確的體系結(jié)構(gòu)。
我們的大腦,我們的神經(jīng)系統(tǒng),不是隨機連接的網(wǎng)絡(luò)。它們有自己的體系結(jié)構(gòu),而且是進(jìn)化了的體系結(jié)構(gòu)。當(dāng)然,它不僅進(jìn)化了,而且還受到了社會的制約。我的意思是,我一直在說,你們和我能進(jìn)行這次談話的唯一原因是因為我們共同地,共享一個文化,一個文化環(huán)境,而它本身就是高度進(jìn)化的。所以,我認(rèn)為意識的出現(xiàn),與溝通、語言以及最終出現(xiàn)的文化是不可分離的。
我認(rèn)為,互聯(lián)網(wǎng)不可能有自我意識,是因為它沒有正確的架構(gòu),而不是因為它沒有足夠的處理器和連接。它顯然有這些,但它與我認(rèn)為是必要的體系結(jié)構(gòu)沒有聯(lián)系——從某種意義上來說,動物神經(jīng)系統(tǒng)的架構(gòu)不是隨機的。這顯然是真的,不是嗎?如果你隨機地連接一千億個神經(jīng)元,并不能得到一個人類大腦。
問:我覺得你可以說互聯(lián)網(wǎng)的主干和節(jié)點是一個有機的結(jié)構(gòu),但是我同意你的觀點。所以,我想我要講的是如果我們制造出一種有自我意識的,可以感知這個世界的機器,那么我們?nèi)绾沃浪凶晕乙庾R呢?
Alan Winfield:我認(rèn)為這確實是一個問題,我們很難知道。其中的一種倫理風(fēng)險,特別是大腦模擬,在某種意義上說,是一種特殊的人工智能,我們可能會不知不覺地制造出一臺機器,它實際上有著非凡的主觀性,甚至更令人擔(dān)憂的,它可能正經(jīng)歷著痛苦。換句話說,一個東西正在經(jīng)歷痛苦。最糟糕的是,正如你說的,我們甚至可能不知道它正在經(jīng)歷這樣的痛苦。
問:比如我的掃地機器人突然意識到了它自己,我們也冒著最終制造一個龐大的數(shù)字奴隸種族的風(fēng)險,對吧?在我們的意志中,我們所做的一切,都是為了感受和感知世界。
Alan Winfield:嗯,是的,機器人作為奴隸的道德問題是另一個問題。我們不要混淆它。從某種意義上說,在機器人的道德問題上我不怎么困擾,因為它們沒有感覺和意識,它們在道德上的要求,我不會說完全沒有,但它們在道德上的要求很低。
自動駕駛汽車發(fā)生交通事故 人類需要對此負(fù)責(zé)
問:當(dāng)機器人倫理問題,或者人工智能倫理問題出現(xiàn),人們會說這是我們必須考慮的一個直接的例子——除了在戰(zhàn)爭中是否應(yīng)該使用這些設(shè)備之外——每個人都知道的例子是,自動駕駛汽車是應(yīng)該開車沖下懸崖還是撞向一個人?有一家自動駕駛汽車制造商站出來說:“我們會保護(hù)司機。我們就是這么做的。”作為一個機器人倫理學(xué)家,你覺得應(yīng)該如何解決這個問題,這個孤立的,真實的世界問題?
Alan Winfield:我認(rèn)為道德困境的問題,尤其是“電車難題”,在現(xiàn)實生活中是非常非常罕見的。我的意思是,像你我這樣的人,我猜你平時會經(jīng)常開車,而且你可能已經(jīng)開了很多年的車,你遇到過多少次電車難題呢?答案是從來沒有過。
問:但是你知道在事故中汽車確實有可能會碾壓到行人。
Alan Winfield:承擔(dān)責(zé)任的并不一定是程序員,但確實是人類。我的觀點——我對此持非常強硬的態(tài)度——是人類,而不是機器人,應(yīng)該承擔(dān)責(zé)任,此處的機器人包括人工智能在內(nèi)。因此,無論無人駕駛汽車是如何編程的,它都不能承擔(dān)責(zé)任。我認(rèn)為這是一個絕對的基礎(chǔ),至少目前是這樣的。在幾百年以后,也許情況會稍微有不同,但是,現(xiàn)在,我持一個非常簡單的觀點——機器人和AI都不應(yīng)該負(fù)責(zé),應(yīng)該負(fù)責(zé)的只有人類。
那么現(xiàn)在,一輛無人駕駛汽車應(yīng)該遵守什么道德規(guī)范呢?我認(rèn)為這是一個社會問題。當(dāng)然,這并不取決于程序員的設(shè)計,甚至是制造商的決定。我認(rèn)為這必須是一個社會問題。所以,你是對的,當(dāng)我們有無人駕駛汽車時,仍然會有事故發(fā)生,當(dāng)然事故會發(fā)生得比較少,但偶爾還是會有,人們?nèi)匀豢赡軙谲嚨溨袉噬?,也就是無人駕駛汽車犯錯誤的時候。
現(xiàn)在,我們需要做幾件事。我認(rèn)為,我們需要能夠找出為什么無人駕駛汽車出了問題,這意味著無人駕駛汽車需要安裝類似在飛機上安裝的飛行數(shù)據(jù)記錄器,我稱之為“道德黑匣子(ethical black box)”。我們需要有監(jiān)管機構(gòu),這意味著制造商有義務(wù)將這些黑匣子安裝到無人駕駛汽車上;事故調(diào)查人員有權(quán)威和權(quán)力,能夠查看這些“道德黑匣子”中的數(shù)據(jù),找出問題出在哪里。
但是,即使這些監(jiān)管全部到位,我覺得,一定還是會有一些偶然的事故,其唯一的解決辦法就是將道德標(biāo)準(zhǔn)應(yīng)用到無人駕駛汽車中。但是,如果我們確實把無人駕駛汽車的行為與道德規(guī)范相匹配,那么這些倫理道德需要由整個社會來決定,這樣我們就能共同承擔(dān)起那些發(fā)生事故和人們受到傷害的少數(shù)案例的責(zé)任。
問:Weizenbaum是著名的ELIZA聊天機器人的發(fā)明者,如果你輸入,“我有個問題”,它會說,“你有什么問題?”“我和我的父母有矛盾,”“你和你的父母有什么矛盾?”就像這樣繼續(xù)下去。Weizenbaum寫了這個程序,然后他注意到人們對聊天機器人產(chǎn)生了情感上的依戀,盡管他們知道這只是一個簡單的程序。他區(qū)分了決定和選擇的概念。他說,“機器人應(yīng)該做決定。這是一種計算機操作。但它們永遠(yuǎn)不應(yīng)該做選擇。選擇是人類應(yīng)該做的。”你認(rèn)為他這種說法對嗎,你對這種區(qū)別有什么看法?他認(rèn)為,人希望機器有同理心,這從根本上就是錯誤的,因為這樣做沒有高估機器的能力,而是貶低了人類。
Alan Winfield:是的,我當(dāng)然堅決認(rèn)為,如果我們用機器人作為個人助理或者聊天機器人,顧問或者伙伴,無論是什么,都需要在一個非常嚴(yán)格的道德框架內(nèi)完成這些,確保沒有人被欺騙,沒有人被剝削。我能想到的一個關(guān)于欺騙的例子就是,在使用聊天機器人時,相信你真的是在和一個人說話,或者,即使你意識到你不是在和一個人說話,也相信這個系統(tǒng),相信機器在照顧你,機器對你有感情。
我當(dāng)然不會堅決認(rèn)為我們永遠(yuǎn)也不應(yīng)該有這種伙伴系統(tǒng),因為我認(rèn)為在某些情況下,毫無疑問,它們是有價值的。比如說,機器人寵物。當(dāng)可能患有癡呆癥的老人進(jìn)入療養(yǎng)院時,他們所經(jīng)歷的最大的創(chuàng)傷之一就是把他們的寵物丟在一旁。我和一個在養(yǎng)老院工作的人交流過,他說,那些老年癡呆患者,表示希望他們住的地方有機器人寵物。
現(xiàn)在,這些老年人可能會意識到,機器人寵物并不是真正的動物,但是,在某種意義上,他們?nèi)匀豢赡軙X得這個機器人很在意它們。我認(rèn)為這是可以的,因為我認(rèn)為,和欺騙造成的心理傷害相比,更重的是機器人寵物對治療的益處。
但我想說的是,我認(rèn)為我們需要強有力的道德框架,指導(dǎo)方針和規(guī)定,保證弱勢群體,尤其是兒童,殘疾人,老年人尤其是可能患有癡呆癥的老人,不會被肆無忌憚的制造商或設(shè)計師設(shè)計出的看似有感情的系統(tǒng)所利用。
問:關(guān)于科幻小說你怎么看?你是否會覺得任何科幻小說、電影或電視節(jié)目中的情形“啊,這可能會發(fā)生"?
Alan Winfield:我讀過很多科幻小說,當(dāng)然不是所有都會發(fā)生,但很多時候我希望或者喜歡看到其中一些能夠發(fā)生。通常最好的科幻小說都是反烏托邦的,但這也沒關(guān)系,因為好的科幻小說就像一個思想實驗,不過我也喜歡烏托邦式的幻想。而且我更喜歡Iain M.Banks的The Culture系列中的AI烏托邦——在這個世界里,有很多極其聰明的,非常神秘的人工智能,但是,盡管如此,它們是善良和仁慈的,會照顧那些貧窮的人。我有點喜歡他這個想法。