據(jù)外媒分析,人工智能正在迅速發(fā)展。在不遠(yuǎn)的將來,我們可能會(huì)開始覺得我們的機(jī)器有一些類似于思想和感覺的東西,盡管它們是由金屬和塑料構(gòu)成的。

當(dāng)這種情況發(fā)生時(shí),我們?nèi)绾螌Υ覀兊臋C(jī)器將很重要;哲學(xué)家和學(xué)者們已經(jīng)在想象機(jī)器人和智能機(jī)器可能應(yīng)該--并且被賦予--某種權(quán)利的時(shí)代。
這些不一定是人權(quán)。但是,“如果你有一臺(tái)電腦或一臺(tái)機(jī)器人,它是自主的,自我意識的,我認(rèn)為很難說它不是一個(gè)人,”加拿大多倫多約克大學(xué)(York University)的哲學(xué)家克里斯汀安德魯斯(Kristin Andrews)這樣說道。
這就提出了許多難題。我們應(yīng)該如何對待一個(gè)有一定意識的機(jī)器人?如果我們確信人工智能程序擁有意識,關(guān)閉它就等于謀殺嗎?
機(jī)器人vs類人猿

一個(gè)明顯的比較是動(dòng)物權(quán)利運(yùn)動(dòng)。動(dòng)物權(quán)利倡導(dǎo)者一直在推動(dòng)重新評估某些動(dòng)物的法律地位,特別是類人猿。像佛羅里達(dá)州珊瑚泉這樣的非人權(quán)項(xiàng)目組織認(rèn)為,黑猩猩、大猩猩和猩猩應(yīng)該被視為自主的人,而不僅僅是財(cái)產(chǎn)。
領(lǐng)導(dǎo)該法律團(tuán)隊(duì)的史蒂文·懷斯(StevenWise)表示,同樣的邏輯也適用于任何獨(dú)立實(shí)體,無論是否存在。如果有一天我們有了有知覺的機(jī)器人,我們應(yīng)該對他們承擔(dān)同樣的道德和法律責(zé)任,就像我們對待某些動(dòng)物一樣。
當(dāng)然,決定哪種機(jī)器值得道德考慮是很棘手的問題,因?yàn)槲覀兘?jīng)常把人類的想法和感情投射到無生命的實(shí)體身上--最終會(huì)同情那些根本沒有思想或感情的實(shí)體。
譬如波士頓動(dòng)力公司開發(fā)的一種類似狗的機(jī)器人。今年早些時(shí)候,總部位于馬薩諸塞州的公司發(fā)布了一段視頻,顯示員工踢這臺(tái)四條腿的機(jī)器。這個(gè)想法是為了炫耀點(diǎn)的非凡平衡。但有些人認(rèn)為這類似于虐待動(dòng)物。例如,“動(dòng)物倫理對待”組織(PETA)發(fā)表了一份聲明,稱SPOT的處理“不恰當(dāng)”。

麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究人員凱特·達(dá)林(Kate Darling)在研究人們?nèi)绾闻c玩具恐龍機(jī)器人普萊奧(Pleo)互動(dòng)時(shí),觀察到了類似的情況。佩洛看上去不像個(gè)活生生的動(dòng)物--這顯然是個(gè)玩具。但是,它的特點(diǎn)是行動(dòng)和說話的方式,不僅表明一種形式的智力,而且也有能力體驗(yàn)痛苦。如果你倒掛著,它會(huì)發(fā)出嗚咽,叫你停下。
為了看看我們能把同情擴(kuò)展到簡單的機(jī)器人上有多遠(yuǎn),達(dá)林鼓勵(lì)參加最近一次研討會(huì)的人和普萊奧一起玩,然后請他們銷毀它。幾乎所有的人都拒絕了。達(dá)林說:“人們下意識地把機(jī)器人當(dāng)作生物對待,即使是在有意識的層面上,在理性的層面上,我們也完全理解它們不是真實(shí)的。”
雖然普萊奧無法感受到痛苦,但達(dá)林認(rèn)為,我們應(yīng)該關(guān)注如何對待這些實(shí)體。她說:“如果我們對他們表現(xiàn)出暴力,這會(huì)讓我們感到不安。”(這是電視連續(xù)劇“西部世界”(Westworld)提出的一個(gè)關(guān)鍵問題,在這部電視劇中,主題公園的游客被鼓勵(lì)隨意對待超逼真的仿人機(jī)器人。)
與機(jī)器人交談

就目前而言,虐待機(jī)器人并不是犯罪--只要你是主人。但是,虐待一個(gè)我們認(rèn)為確實(shí)有某種意識的機(jī)器人又如何呢?我們?nèi)绾尾拍軓囊婚_始就知道一臺(tái)機(jī)器是否有頭腦呢?
計(jì)算機(jī)科學(xué)先驅(qū)艾倫·圖靈半個(gè)世紀(jì)前就思考過這個(gè)問題。圖靈的看法是,我們永遠(yuǎn)不可能確切地知道一臺(tái)機(jī)器的感受或體驗(yàn)--所以我們最好的選擇就是看看我們是否能像跟人類說話一樣與它進(jìn)行對話(我們現(xiàn)在稱之為圖靈測試)。
鑒于人類談話的復(fù)雜性,建立一臺(tái)能夠進(jìn)行長時(shí)間口頭交流的機(jī)器是一項(xiàng)艱巨的任務(wù)。但圖靈認(rèn)為,如果我們能制造出這樣一臺(tái)機(jī)器,我們就應(yīng)該把它當(dāng)作一個(gè)人。
亞特蘭大的拉比和法學(xué)教授馬克·戈德費(fèi)德(MarkGoldfeder)得出了類似的結(jié)論:如果一個(gè)實(shí)體表現(xiàn)出人類的某些特質(zhì),我不能虐待它,看它是否流血。我有責(zé)任像對待人類一樣去對待它。
顯而易見的結(jié)論是,權(quán)利不應(yīng)以生物學(xué)為基礎(chǔ),而應(yīng)建立在更基本的基礎(chǔ)上:人格。
如果我們最終承認(rèn)某個(gè)智能機(jī)器是一個(gè)人,那么我們有義務(wù)賦予它什么法律權(quán)利呢?如果它能通過圖靈測試,我們可能會(huì)覺得它至少應(yīng)該得到繼續(xù)存在的權(quán)利。
但是澳大利亞的哲學(xué)家羅伯特·斯派洛認(rèn)為這只是個(gè)開始。他想知道,如果一臺(tái)機(jī)器的“頭腦”甚至比人類的還要大,會(huì)發(fā)生什么呢?在最近發(fā)表在TheCritique.com上的一篇文章中,他寫道:“事實(shí)上,殺死一臺(tái)能夠通過圖靈測試的機(jī)器,就像殺死一個(gè)成年人類一樣,也是錯(cuò)誤的,而且,根據(jù)機(jī)器的容量,這個(gè)錯(cuò)誤更大。”