Sharkey指出,最大的問(wèn)題其實(shí)還是負(fù)責(zé)制度。如果某次軍事行動(dòng)出錯(cuò),機(jī)器人無(wú)法被問(wèn)責(zé),這也是與Sharkey交流過(guò)的指揮者們真正擔(dān)心的問(wèn)題:如果機(jī)器人出錯(cuò)了,倒霉的可是指揮官們。
“這對(duì)指揮官不公平,機(jī)器人隨時(shí)會(huì)崩潰當(dāng)機(jī),機(jī)器人有可能被人類(lèi)誘騙,可能被黑,可能由于編程中的某次出錯(cuò)讓黑客通過(guò)計(jì)算機(jī)控制開(kāi)槍?zhuān)瑱C(jī)器人的傳感器可能出現(xiàn)故障,而這一切又應(yīng)該由誰(shuí)來(lái)負(fù)責(zé)呢?是制造者?軟件工程師?機(jī)器人工程師?還是指揮官?在戰(zhàn)場(chǎng)上一旦出錯(cuò)必須清楚誰(shuí)該負(fù)責(zé)。“
Sharkey關(guān)心的是一旦技術(shù)上的限制被突破,戰(zhàn)爭(zhēng)機(jī)器人極有可能逐步推廣到全世界的戰(zhàn)場(chǎng)。“自主機(jī)器人技術(shù)并非用于戰(zhàn)爭(zhēng),即便自主機(jī)器人武器被部署在戰(zhàn)場(chǎng),這項(xiàng)技術(shù)本身也不適合用于戰(zhàn)爭(zhēng)。”
戰(zhàn)場(chǎng)上的科技樹(shù)越攀越高,自主機(jī)器人投入使用的可能行也越來(lái)越大。如果僅靠攔截通訊就可以阻攔敵方無(wú)人機(jī),那么可以輕易自主執(zhí)行任務(wù)的無(wú)人機(jī)就會(huì)被開(kāi)發(fā)出來(lái)。同樣的道理,遙控?zé)o人機(jī)駕駛員在遙控裝置上發(fā)出一個(gè)指令到無(wú)人機(jī)真正執(zhí)行之間有1.5秒的延時(shí),人工操控?zé)o人機(jī)的反應(yīng)速度會(huì)不如自主無(wú)人機(jī),這也為自主無(wú)人機(jī)的推廣給出了理由。
ICRAC希望管制傳統(tǒng)武器聯(lián)合國(guó)大會(huì)此次討論自主武器將為禁止自主機(jī)器人武器邁出第一步,對(duì)激光致盲武器的禁令就是這么走過(guò)來(lái)的。
人們對(duì)自主機(jī)器人武器的誤解達(dá)到了不可思議的地步,其中的原因是對(duì)人工智能抱有太大期望。實(shí)際上人工智能的水平還遠(yuǎn)沒(méi)有達(dá)到人們的預(yù)期,或者,用Sharkey教授的話(huà)說(shuō):“因?yàn)榭苹眯≌f(shuō)而導(dǎo)致的人們對(duì)人工智能的文化曲解。”機(jī)器人研究者指出AI目前的應(yīng)用領(lǐng)域都是一些極為平常的領(lǐng)域,并非用于制造能夠思考的機(jī)器人。
“20年內(nèi)可感知機(jī)器人會(huì)誕生,而在每個(gè)年代都有人揚(yáng)言智能機(jī)器人就要誕生了,但是真正的機(jī)器人工作者們卻從來(lái)不這么說(shuō),他們繼續(xù)著他們的研究。人工智能在不斷發(fā)展,它的身影遍布我們身邊只是我們從沒(méi)意識(shí)到——手機(jī)和汽車(chē),這都是科學(xué)家們研究的內(nèi)容。”
有人指出在遙遠(yuǎn)的未來(lái)人工智能可能發(fā)展成熟,電腦可以遵守戰(zhàn)爭(zhēng)基本法,即便這樣,最基本的道德問(wèn)題依然沒(méi)有消失。Sharkey說(shuō):“誰(shuí)改負(fù)責(zé)的問(wèn)題依然沒(méi)有得到解決,人們還是要抉擇是否應(yīng)該讓機(jī)器人有權(quán)殺死人類(lèi)。”
機(jī)器人法則
對(duì)機(jī)器人是否擁有權(quán)利殺人的討論可能略顯神秘,爭(zhēng)論本身也還是很模糊,尤其是——殺人機(jī)器人還不存在。
目前我們的工作是為特殊用途制定特殊的機(jī)器人規(guī)則,例如國(guó)防部的自主武器系統(tǒng)規(guī)劃。另一個(gè)不那么雄偉的例子:美國(guó)一些州最近準(zhǔn)備通過(guò)允許自主駕駛汽車(chē)上路的法案。我們正為不同的機(jī)器人應(yīng)用領(lǐng)域制定不同的機(jī)器人規(guī)則,卻很少去研究機(jī)器人殺人問(wèn)題。
然而,有許多人提出創(chuàng)建一系列新的規(guī)則和道德框架來(lái)掌握人工智能和機(jī)器人。這其中最出名的是阿西莫夫的機(jī)器人三大定律。這套規(guī)則在1942年首次被提出,至少在科幻世界中已經(jīng)為機(jī)器人的行為準(zhǔn)則制訂了道德框架。
阿西莫夫三大定律陳述:
第一法則:
機(jī)器人不得傷害人類(lèi),或因不作為使人類(lèi)受到傷害;
第二法則:
除非違背第一法則,機(jī)器人必須服從人類(lèi)的命令;
第三法則:
在不違背第一及第二法則下,機(jī)器人必須保護(hù)自己。
無(wú)論是機(jī)器人還是人工智能都沒(méi)有發(fā)展到足以理解或遵守這三條定律,或是其他復(fù)雜規(guī)則的程度。吸塵機(jī)器人就不需要理解如此復(fù)雜的道德規(guī)則。
“人類(lèi)想出了阿西莫夫定律,但是定律本身就表明了簡(jiǎn)單的道德規(guī)則無(wú)法運(yùn)作。如果你通讀三大定律就會(huì)發(fā)現(xiàn),每條定律都說(shuō)不通,阿西莫夫定律是不切實(shí)際的。”英國(guó)巴斯大學(xué)的Joanna Bryson教授說(shuō)。
Bryson教授強(qiáng)調(diào),機(jī)器人和人工智能只能被視為最先進(jìn)的工具——極端復(fù)雜的工具,但是僅此而已。她指出,人工智能應(yīng)該被當(dāng)做人類(lèi)智能的擴(kuò)展,就像書(shū)寫(xiě)成書(shū)是人類(lèi)記憶的擴(kuò)展一樣。“人工智能只是人類(lèi)千百年來(lái)改造世界的無(wú)數(shù)工具之一,”她說(shuō),“不同的是改造的速度比以前更快了。”
無(wú)論機(jī)器人的自主能力和智能達(dá)到何種水平,對(duì)Bryson來(lái)說(shuō),機(jī)器人和人工智能都只屬于工具范疇,因此需要規(guī)則的并非機(jī)器人而是人類(lèi)。“人們需要在自身建立道德框架,機(jī)器人用不著擁有自己的道德框架。人類(lèi)要做出選擇,把機(jī)器人放在人的道德框架之內(nèi),才不會(huì)殘殺地球上的其他生命。”
英國(guó)工程和物理科學(xué)研究理事會(huì)(EPSRC)是少數(shù)幾個(gè)致力于制定一套實(shí)用的機(jī)器人規(guī)則的組織,但是很快EPSRC就意識(shí)到目前機(jī)器人并不需要這么一套規(guī)則。
EPSRC的機(jī)器人守則中注明:“阿西莫夫定律的不恰當(dāng)性在于,規(guī)定了機(jī)器人應(yīng)該怎么做,將機(jī)器人視作人類(lèi),但是現(xiàn)實(shí)中,設(shè)計(jì)和使用機(jī)器人的人類(lèi)才必須成為類(lèi)似這種規(guī)則的遵守者。如果在人類(lèi)社會(huì)中考量機(jī)器人的道德規(guī)則,很明顯所有責(zé)任不在機(jī)器人。”
由此,EPSRC的專(zhuān)家包括Bryson博士制定的規(guī)則的目標(biāo)針對(duì)機(jī)器人的設(shè)計(jì)者、制造者和使用者,對(duì)機(jī)器人本身并不適用。
舉例來(lái)說(shuō),五條規(guī)則包括:“人類(lèi),非機(jī)器人,是責(zé)任承擔(dān)者。機(jī)器人的設(shè)計(jì)和操作必須遵守現(xiàn)行的各項(xiàng)法律法規(guī)和基本人權(quán)以及包括隱私權(quán)在內(nèi)的自由權(quán)。”
倫敦大學(xué)學(xué)院的Kathleen Richardson教授也表示,無(wú)須為還不存在的機(jī)器人制定新的規(guī)則以保護(hù)人類(lèi)不收其他機(jī)器的侵害,即便這些機(jī)器人被用于戰(zhàn)場(chǎng)。
“遙控殺人機(jī)器會(huì)導(dǎo)致一系列人與人之間暴力相處的新問(wèn)題。在這種情況下,你必須了解機(jī)器會(huì)殺死‘正確’目標(biāo)……即便這樣,遙控殺人機(jī)器和機(jī)器人道德還是沒(méi)有關(guān)系,真正需要關(guān)心的是人類(lèi)道德。”她說(shuō)到。
“目前我們制造的機(jī)器人不是科幻小說(shuō)中的思考機(jī)器人,”她說(shuō),“因此健康標(biāo)準(zhǔn)和安全標(biāo)準(zhǔn)反而是最重要的問(wèn)題。我們建造的機(jī)器人不是一不小心就攻擊你的機(jī)器人,我們的工作是幫助機(jī)器人分清對(duì)錯(cuò)。”
“科學(xué)家研制的機(jī)器人類(lèi)似自動(dòng)便利設(shè)備,”她說(shuō),“我們應(yīng)該把更多關(guān)注放到實(shí)際造出來(lái)的機(jī)器上面,我們要保證人們使用的機(jī)器是安全的機(jī)器。我們不需要為機(jī)器人制定‘特殊’規(guī)則,人們口中討論的能夠掌握道德觀的機(jī)器人還不存在,并且未來(lái)也不太可能存在。”
也許我們需要的可能是保證我們家中使用的兩足機(jī)器人的安全性,這是更實(shí)際的考量,這也是你在使用家庭中所有消費(fèi)電器時(shí)要考慮的因素。
“還有,道德觀實(shí)際上比這些定律和規(guī)則負(fù)責(zé)得多,”她說(shuō):“道德觀是一系列相異的見(jiàn)解,不同用途的機(jī)器人踐行的道德觀也是不同的。”
開(kāi)放思想 去愛(ài)機(jī)器人
確實(shí),我們?cè)庥鰵⑹謾C(jī)器人的概率十分渺茫(希望如此),機(jī)器人在關(guān)照日益增多的老年人生活起居方面也起著越來(lái)越重要的作用,這個(gè)問(wèn)題就更加龐大而長(zhǎng)久了。與其害怕機(jī)器人殘害人類(lèi),人類(lèi)在情感上更依賴(lài)機(jī)器人,機(jī)器人給我們的愛(ài)也多的數(shù)不勝數(shù)。
EPSRC還有一條指導(dǎo)規(guī)則(再次聲明這是機(jī)器人領(lǐng)域?yàn)閿?shù)不多的規(guī)則之一),規(guī)則中陳述:“機(jī)器人由人類(lèi)制造,人類(lèi)不允許以欺騙手段讓機(jī)器人剝削弱勢(shì)群體,機(jī)器人必須所言即所想。”
規(guī)則提醒人們,某些沒(méi)節(jié)操的制造商會(huì)通過(guò)機(jī)器人寵物或機(jī)器人伴侶讓人產(chǎn)生機(jī)器人有感情的錯(cuò)覺(jué),從中謀取利益。
把機(jī)器人造的擁有感情,然后覺(jué)得有必要給它們套上道德的框架來(lái)指導(dǎo)它們的行為,這也許才是人類(lèi)要面對(duì)的最大風(fēng)險(xiǎn)。我們冒險(xiǎn)將機(jī)器人打造地和人一樣——卻因此也讓機(jī)器人更容易忽略人類(lèi)。
Richardson教授說(shuō)機(jī)器人科學(xué)家對(duì)機(jī)器人道德觀的思考無(wú)可厚非,但是對(duì)機(jī)器人道德觀的爭(zhēng)論卻忽略了另一個(gè)更嚴(yán)重的問(wèn)題:為什么我們要用這些設(shè)備,尤其是在人與人交流的社會(huì)關(guān)懷領(lǐng)域。
現(xiàn)實(shí)的責(zé)任
殺人機(jī)器人和強(qiáng)悍的瘋狂人工智能常常在廉價(jià)的科幻小說(shuō)里讀到,但是關(guān)注這些可能的威脅讓人們忽略了對(duì)自己生活的現(xiàn)實(shí)社會(huì)的思考。機(jī)器人道德觀反映或者控訴了人類(lèi)社會(huì),表達(dá)了對(duì)于人類(lèi)無(wú)法準(zhǔn)確定位機(jī)器人的擔(dān)憂(yōu)。機(jī)器人無(wú)論是用于戰(zhàn)爭(zhēng)還是照看我們的長(zhǎng)輩——其實(shí)都是人類(lèi)自己不愿意去做的事情。
讓機(jī)器人來(lái)做這部分工作可能可以解決部分問(wèn)題,但是潛在問(wèn)題依然沒(méi)有解決,更糟糕的是導(dǎo)致社會(huì)忽視機(jī)器人。機(jī)器人上戰(zhàn)場(chǎng)讓?xiě)?zhàn)爭(zhēng)變得簡(jiǎn)單,機(jī)器人照看老人讓我們更容易忽視我們敬老的責(zé)任和社會(huì)壓力,尤其是處在這個(gè)老齡化社會(huì)。鑒于此,對(duì)機(jī)器人道德框架的擔(dān)憂(yōu)更多的是分散人們對(duì)于自己道德滑坡的注意力。