哲學(xué)僵尸應(yīng)該有能力提出有關(guān)體驗屬性的任何問題。不過,值得深思的是,一個缺乏體驗的人或機器如何能回顧其沒有過的體驗。

作者簡介:喬·弗洛里希(Joel Frohlich)是加州大學(xué)洛杉磯分校的一位博士后研究者,在馬丁·蒙蒂的實驗室中從事意識研究,他在加州大學(xué)洛杉磯分校獲得了神經(jīng)科學(xué)博士學(xué)位,師從沙法利·耶斯特(Shafali Jeste),當時的研究方向是神經(jīng)發(fā)育紊亂的生物標記物。目前他還是科學(xué)交流網(wǎng)站“Knowing Neurons”的總編輯。
澳大利亞哲學(xué)家大衛(wèi)·查莫斯(David Chalmers)有一個著名的問題是,是否可以想象“哲學(xué)僵尸”(philosophical zombies)——那些表現(xiàn)得像你我一樣卻又缺乏主觀經(jīng)驗的人——的存在?這個問題引起了很多學(xué)者對意識的興趣,包括我。原因在于,如果這種僵尸(或者說精密但毫無感情的機器人)可能存在,那么僅僅用物理屬性——關(guān)于大腦或類似大腦的機制——就無法解釋意識體驗。相反,我們必須考慮一些額外的精神屬性,才能解釋什么是有意識的感覺。弄清楚這些心理屬性是如何產(chǎn)生的,就成為所謂的“意識的困難問題”。
但是,對于查莫斯的哲學(xué)僵尸一說,我有一個小小的問題。哲學(xué)僵尸應(yīng)該有能力提出有關(guān)體驗屬性的任何問題。不過,值得深思的是,一個缺乏體驗的人或機器如何能回顧其沒有過的體驗。在播客“Making Sense”(此前的名稱是“Waking Up”)的一集節(jié)目中,查莫斯與神經(jīng)學(xué)家兼作家薩姆·哈里斯(Sam Harris)討論了這一問題。“我認為至少設(shè)想一個能這么做的系統(tǒng)并不是特別困難,”查莫斯說,“我的意思是,我現(xiàn)在正與你交談,而你正在做出大量有關(guān)意識的評論,這些評論似乎很強烈地表明你具有意識。盡管如此,我至少可以考慮這么一個想法,即你并沒有意識,你實際上是一個僵尸,你發(fā)出所有這些噪音的同時內(nèi)心并沒有任何意識。”
這不是一個嚴格的學(xué)術(shù)問題。如果谷歌的DeepMind公司開發(fā)了一個人工智能,它開始提問“為什么紅色感覺像紅色,而不是其他什么東西”,那么就自有少數(shù)可能的解釋?;蛟S它從別人那里聽到了這個問題。這是可能的,例如,人工智能可能只需要簡單地閱讀有關(guān)意識的論文,就可以學(xué)會提出關(guān)于意識的問題。它還可能經(jīng)過編程來提出這個問題,就像視頻游戲中的角色一樣?;蛘?,它可能從隨機噪音中蹦出了這么一個問題。很顯然,提出有關(guān)意識的問題本身并不能說明任何事情。但是,如果沒有從其他來源聽到這些問題,或者沒有足夠的隨機輸出的話,一個人工智能僵尸會自己構(gòu)想出這種問題嗎?對我來說,答案顯然是否定的。如果我是對的,那么我們就應(yīng)該認真考慮當一個人工智能自發(fā)地提出有關(guān)主觀體驗的問題時,它就很可能是有意識的。因為我們不知道在沒有確定一個人工智能是否有意識的情況下,拔掉它的電源是否合乎道德。我們最好現(xiàn)在就開始注意聽取這些問題。
我們的意識體驗由“感質(zhì)”(quale)組成。感質(zhì)即感官感受的主觀方面,例如紅色中的紅,甜味中的甜。構(gòu)成意識體驗的感質(zhì)是不可簡化的,無法被映射到其他任何事物上。如果我天生失明,那么任何人都無法讓我感受到鮮血和玫瑰花共有的顏色感受,無論描述得多么清晰。即使我是發(fā)展出盲視能力——盡管失明但是能夠避開障礙物并準確猜出電腦顯示屏上物體出現(xiàn)的位置——的眾多失明者之一,情況也同樣如此。
盲視似乎表明一些行為可以完全機械化,也就是說,可以完全沒有任何主觀意識地做出某些行為,這回應(yīng)了查莫斯的哲學(xué)僵尸概念。盲視者的大腦似乎利用了視覺系統(tǒng)的前意識區(qū)域,在沒有視覺體驗的情況下產(chǎn)生視覺行為。這種情況經(jīng)常發(fā)生在一個人遭受中風(fēng)或其他視覺皮層損傷之后。視覺皮層是處理視覺信息的大腦皮層。由于此時人的眼睛仍然是健康的,因此眼睛可能會將隱藏在意識中的信息提供給特定的大腦區(qū)域,比如上丘(superior colliculus)。
出于同樣的原因,也存在少數(shù)聾人具有聽力的案例。2017年發(fā)表于《哲學(xué)心理學(xué)》(Philosophical Psychology)期刊的一篇報告詳述了一個這樣的案例,一位被稱為LS的男性患者盡管天生失聰,卻能根據(jù)內(nèi)容區(qū)分不同聲音。對于像LS這樣的人,這種辨別能力是在寂靜中產(chǎn)生的。但是,如果一個聾人問出類似正常人所提出的問題,比如“那個聲音聽起來難道不是很奇怪嗎?”那么我們就有充分的理由懷疑這個人是不是真的聾了(我們不能完全確定,因為這個問題可能只是一個惡作劇)。同樣,如果一個人工智能開始自發(fā)地提出只有具備意識的人才能提出的問題,那我們就會合理地產(chǎn)生類似的懷疑:主觀體驗是不是已經(jīng)上線了?
在21世紀,我們迫切需要就意識進行圖靈測試。人工智能正在學(xué)習(xí)如何駕駛車輛、診斷肺癌以及編寫自己的計算機程序。智能對話可能在十年或二十年內(nèi)就會出現(xiàn),而未來的超級人工智能不會生活在真空中。它將可以訪問互聯(lián)網(wǎng),讀取查莫斯和其他哲學(xué)家關(guān)于感質(zhì)和意識等問題的著述。但是,如果科技公司能在本地內(nèi)部網(wǎng)上對人工智能進行beta測試,隔離這些信息,他們就可以進行圖靈測試式的對談,以檢測有關(guān)感質(zhì)的問題是否對人工智能有意義。
面對一個潛在的硅基思想,我們會提些什么問題?對于諸如“如果我的紅色是你的藍色怎么辦?”或“會有比綠色更綠的顏色嗎?”這樣的問題,人工智能給出的答案應(yīng)該能讓我們了解很多關(guān)于它們精神體驗(或者缺乏精神體驗)的情況。一個具有視覺體驗的人工智能可能會思考這些問題暗示的可能性,或許會這么回答,“是的,我有時會想知道是否還會存在一種顏色,能將紅色的發(fā)熱與藍色的冷淡混合在一起。”另一方面,缺乏視覺感質(zhì)的人工智能可能會回答,“那是不可能的,紅色、綠色和藍色各自以不同的波長存在。”即使人工智能試圖自由發(fā)揮或欺騙我們,比如回答“有意思,如果我的紅色是你的漢堡包怎么辦?”這就表明它沒有抓到重點。
當然,人工意識也可能具有與我們自己截然不同的感質(zhì)。在這種情境下,關(guān)于特定感質(zhì)(比如顏色感知)的問題可能就無法觸動人工智能。但是,關(guān)于感質(zhì)本身更加抽象的問題或許就能篩選出哲學(xué)僵尸。出于這個原因,最好的問題很可能就是“意識的困難問題”本身:意識為什么能夠存在?為什么你在處理周圍世界輸入的信息時會體驗到感質(zhì)?如果人工智能認為這個問題有意義,那我們就很有可能找到人工意識。然而,如果人工智能明顯不理解諸如“意識”和“感質(zhì)”等概念,那么關(guān)于其內(nèi)心精神生活的證據(jù)也就不存在了。
建立一個意識的“檢測器”并不是一件小事。除了這樣的圖靈測試,未來的研究人員還可能會應(yīng)用今天的抽象意識理論,試圖從計算機的接線圖中推斷出意識的存在。一種這樣的理論就考慮了大腦或其他系統(tǒng)整合的信息量,并且已經(jīng)被用于推斷腦損傷患者是否具有意識,甚至用于推斷魚群是否具有意識。事實上,在以檢測人工意識為動機的研究獲得大量資金支持之前,在腦損傷患者中檢測意識的需求就已經(jīng)突破了科學(xué)上的禁忌。
我所在的實驗室由加州大學(xué)洛杉磯分校的馬丁·蒙蒂(Martin Monti)領(lǐng)導(dǎo),致力于通過開發(fā)更好的手段,從大腦電生理活動或代謝活動來推斷意識的情況,從而改善腦損傷患者的生活。當我們拔掉那些意識清醒但沒有反應(yīng)的患者的生存設(shè)備時,就會產(chǎn)生倫理悲?。欢绻覀儼蔚羧斯ひ庾R的電源,就會出現(xiàn)同樣的悲劇。就像我在加州大學(xué)洛杉磯分校的實驗室所做的工作,就是將理論上的意識測定與腦損傷患者的臨床行為聯(lián)系起來,而未來的研究人員也必須將人工意識的理論測定與人工智能在某種圖靈測試中的表現(xiàn)聯(lián)系起來。到了那時,當我們不再需要教科書的時候,我們?nèi)匀恍枰伎冀┦瑹o法回答的那個問題。(任天)