Kurzweil與伯克利大學(xué)哲學(xué)教授,Searle支持一種“強(qiáng)大的人工智能”的觀點(diǎn),他們認(rèn)為一臺(tái)合乎邏輯的編程好的電腦具有意識(shí)。1980年,Searle發(fā)表了他的觀點(diǎn),而這個(gè)觀點(diǎn)日后引起了非難“強(qiáng)大的人工智能”的廣泛辯論。為此,他認(rèn)為由計(jì)算機(jī)按照編程所執(zhí)行的操縱并未充分實(shí)現(xiàn)對(duì)智能的理解。他舉了著名的“中文房間’,的實(shí)驗(yàn)思想。這個(gè)實(shí)驗(yàn)的目的是想證明沒(méi)有天生的感悟力和智力,電腦仍有可能通過(guò)圖靈測(cè)試。
Searle談到如果能夠設(shè)計(jì)出一套程序語(yǔ)言來(lái)回應(yīng)中文問(wèn)題,那么即使對(duì)中文語(yǔ)言不理解,他也能通過(guò)圖靈測(cè)試。他設(shè)想他拿著一本指令書(shū)(程序)在一個(gè)屋子里,這本書(shū)告訴他用接收到的一張紙?jiān)撟鍪裁矗@張紙上只是一些毫無(wú)意義的符號(hào)(對(duì)于他而言)。他看著這本指令書(shū)中的符號(hào),并且遵循著這些規(guī)則。經(jīng)過(guò)若干步驟后,這些符號(hào)會(huì)引領(lǐng)他復(fù)制紙上其它的符號(hào),并且通過(guò)它們走出屋子。

他對(duì)于這些毫不知情,因?yàn)榉?hào)是中文的,并且在室外,它們被闡釋為幾行用中文作指導(dǎo)的對(duì)話。因?yàn)樗谶@個(gè)實(shí)驗(yàn)中是“正在執(zhí)行一個(gè)項(xiàng)目”,所以他并非真正理解他正在參與的“對(duì)話”,Searle談到正在執(zhí)行一個(gè)項(xiàng)目與真正的理解力并不矛盾。這個(gè)爭(zhēng)論引起了長(zhǎng)時(shí)間的辯論和論證,基本都是關(guān)于電腦系統(tǒng)是否能夠真正具有理解任何事物的能力。Searle相信由他的“中文房間”實(shí)驗(yàn)所引起的爭(zhēng)論具有普遍意義,但同時(shí)他對(duì)于很多計(jì)算機(jī)科學(xué)家沒(méi)有認(rèn)識(shí)到這一問(wèn)題而感到驚訝。
“中文房間”的實(shí)驗(yàn)思想使一些哲學(xué)家表現(xiàn)出這樣一種態(tài)度,那就是對(duì)于電腦的程序編輯于智能系統(tǒng)的發(fā)展是沒(méi)有幫助的。甚至一些懷疑論者也宣稱Searle的成果只能證明我們通過(guò)自己的努力來(lái)實(shí)現(xiàn)智能體道德也是不可能的。
那么哲學(xué)上的這些異議是否能夠阻止在倫理決策上提出的一些計(jì)算方案呢?顯然是不能的。然而,我們必須面對(duì)哲學(xué)上提出的兩個(gè)難題:機(jī)器人能否成為真正的道德主體,以及它如何才能認(rèn)識(shí)到這一點(diǎn)?

我們暫時(shí)可能得不到一個(gè)明確的答案,但是對(duì)于它們的討論是很有價(jià)值的。因?yàn)閼岩珊蜖?zhēng)論往往能夠促進(jìn)事物的發(fā)展,或者人類思想的進(jìn)步。在這場(chǎng)討論中,我們進(jìn)一步思考作為一個(gè)真正的道德主體它應(yīng)該滿足什么樣的要求?對(duì)于這個(gè)問(wèn)題有很多回答,有些人關(guān)注于自覺(jué)思考,有些人關(guān)注自由意愿,有些人則關(guān)注于道德責(zé)任問(wèn)題。
對(duì)于智能體是否可以成為道德主體的討論有助于人工智能體道德理論體系的建構(gòu)。如果對(duì)于意識(shí)的研究可以開(kāi)啟人工智能體設(shè)計(jì)上的新思路,那么我們就應(yīng)該給予關(guān)注。我們進(jìn)一步思考,當(dāng)前的人工智能在沒(méi)有意識(shí)的狀況下,又是什么限制了它的發(fā)展呢?
Searle關(guān)于人工智能的觀點(diǎn)以及“中文房間”的實(shí)驗(yàn)思想,引起了人們對(duì)于人工智能的一些爭(zhēng)論。但在這場(chǎng)爭(zhēng)論中,人們并沒(méi)有排除人工智能體自主道德設(shè)計(jì)的可能性,而實(shí)際上人工智能體的設(shè)計(jì)與智能體作為道德主體的建立還是有區(qū)別的。Searle關(guān)于意識(shí)、理解力等概念的認(rèn)識(shí)與如何才能使機(jī)器人的行為符合道德規(guī)范的實(shí)際議題基本上是不相干的。
智能機(jī)器對(duì)于三百多年前的笛卡爾而言可能就是荒謬的。在笛卡爾看來(lái),意識(shí)與客觀物存在很多不同,他進(jìn)一步總結(jié)出意識(shí)和身體是有區(qū)別的。機(jī)器是物質(zhì)客體,在空間和時(shí)間中延展,并且可以分為更小的物質(zhì)組成部分。意識(shí),在笛卡爾的觀念中,是不可分割的。盡管笛卡爾把人類設(shè)想為是機(jī)械的身體和非物質(zhì)意識(shí)的完美結(jié)合,但是物質(zhì)化的機(jī)械從未有過(guò)智力上的特性。與Searle不同,笛卡爾認(rèn)為機(jī)器天生就不具有理性和靈活使用語(yǔ)言的能力。如果笛卡爾是對(duì)的,那么人們對(duì)于人工智能體具有自主道德的暢想就是沒(méi)有意義的。
笛卡爾聲稱人類理性和語(yǔ)言表達(dá)能力不能復(fù)制,意識(shí)只是身體某器官的運(yùn)動(dòng)而已,他認(rèn)為這是無(wú)懈可擊的。;然而這些論斷可能都基于十七世紀(jì)科學(xué)發(fā)展的水平。科學(xué)發(fā)展到今天,這些過(guò)去不能動(dòng)搖的思想可能已沒(méi)有多大分量。尤其是隨著硅晶管技術(shù)的發(fā)展,人類對(duì)于大腦的研究和開(kāi)發(fā)也在不斷更新,人類意識(shí)能否融入人工智能可能只是時(shí)間的問(wèn)題。
人生而自由。這種自由的感覺(jué)即使在身體極端受限的情況下也可感知到。比如,一個(gè)戴著手銬的人仍然可以自由地眨眼。那么這種感覺(jué)的根源是什么?它是否應(yīng)該有倫理方面的限制呢?對(duì)此,可能還沒(méi)有一個(gè)明確的回答。
人類自由意愿的觀點(diǎn)經(jīng)常被賦予某科,神秘的色彩,不管它是否僅僅基于人類而言,或者即使它不能夠以科學(xué)的方式去定義。不過(guò),哲學(xué)家DanielDemett卻否認(rèn)這一觀點(diǎn)。也認(rèn)為能夠考慮多種選擇并從中做出抉擇的能力只有人類刁-能擁有,而且只有這類人才值得擁有。然而,因?yàn)樽杂梢庠覆⒉荒艿玫胶芮逦谋硎?,所以這種神秘的想法只能為反對(duì)嘗試設(shè)計(jì)人工智能體自主道德的舉動(dòng)提供一個(gè)模糊的爭(zhēng)論。反對(duì)者認(rèn)為人類的自由意愿是一個(gè)神秘的因素,是不能抗拒的一種直覺(jué),這種直覺(jué)不能應(yīng)用到人工智能體自一仁道德的設(shè)計(jì)中去。
但這是否影響了人工智能體自主道德項(xiàng)目的設(shè)計(jì)呢?顯然不會(huì)。“深藍(lán)”并沒(méi)有因?yàn)槿狈δ撤N神秘因素而輸?shù)襞c國(guó)際象棋大師的比賽。當(dāng)然,這可能會(huì)涉及到另一個(gè)爭(zhēng)論,那就是深藍(lán)成功的關(guān)鍵是依靠它本身設(shè)計(jì)中所涉及的人類的創(chuàng)造力。即使這其中人類的創(chuàng)造力不是確定的,結(jié)果也證明它是一個(gè)具有駕馭最高水平國(guó)際象棋比賽能力的確定性系統(tǒng)。
依據(jù)其確定性系統(tǒng),以及僅僅從其優(yōu)越的能力方面來(lái)看,深藍(lán)有資格成為道德主體,但是這并不能掩蓋它的短板,因此,從總體上而言,它還不能成為道德主體。為此,在人工智能體可否成為道德主體的問(wèn)題上,LueianoFloridi和J.W.sanders提出了三個(gè)關(guān)鍵性的特征:相互作用:對(duì)事物變化引起的刺激能夠回應(yīng)。自主權(quán):在沒(méi)有外界刺激的情況下也可適時(shí)而動(dòng)。適應(yīng)性:能夠根據(jù)環(huán)境的改變而隨時(shí)調(diào)整適應(yīng)規(guī)則。
在一定程度上,深藍(lán)是具有相互性和自主性的,但是它缺乏適應(yīng)性。它需要依靠編程人員來(lái)改變規(guī)則,這樣它才能發(fā)揮自身的功能。確實(shí),象棋大師卡斯帕羅夫就認(rèn)為,編程人員對(duì)于深藍(lán)的設(shè)計(jì)完全是針對(duì)他下棋的方式而設(shè)立的,并最終擊敗他,這是很不公平的。因此,人工智能的下一步是要提升系統(tǒng)的學(xué)習(xí)能力,增強(qiáng)它的適應(yīng)性,然而,至今這一學(xué)習(xí)運(yùn)算方面的能力尚未呈現(xiàn)。
當(dāng)然,深藍(lán)所具有的國(guó)際象棋規(guī)則并非倫理。作為道德主體的智能體,它所應(yīng)該具有的人類核心特征是在自私與無(wú)私的行為之間可以保持平衡。在兩者平衡的張力下,進(jìn)而建立自由的可能性,也就是在做善事與做惡事上的平等自由。
對(duì)于一個(gè)確定性的系統(tǒng),如何才能產(chǎn)生倫理?控制論家HeinzvonFoerster認(rèn)為,機(jī)器人并不是倫理規(guī)范的被動(dòng)中轉(zhuǎn)人。在軍事領(lǐng)域,士兵對(duì)機(jī)器人的關(guān)心反應(yīng)了一種新的倫理可能性,例如,為了保全機(jī)器人,士兵不得不使用狗來(lái)完成任務(wù)。這種情況下,人類在設(shè)計(jì)人工智能體的時(shí)候就多了一層想法。例如,當(dāng)人類與機(jī)器人互動(dòng)的時(shí)候,機(jī)器人是否能估量出對(duì)方的意愿。
結(jié)語(yǔ)
這種想法無(wú)論好壞或?qū)﹀e(cuò),都有利于機(jī)器人與人類之間發(fā)生關(guān)系。通過(guò)這種方式,人類和機(jī)器人之間有可能實(shí)現(xiàn)互惠。在這種互惠結(jié)構(gòu)中,智能體的任何操作都可能與目標(biāo)體之間出現(xiàn)沖突,不論任何時(shí)候,一旦沖突發(fā)生,就有可能危害到人類,那么倫理問(wèn)題就產(chǎn)生了。系統(tǒng)中有效選擇的應(yīng)用越多,那么潛在的沖突也就越多,相應(yīng)的倫理問(wèn)題也隨之增加。