做人要有原則,不能做的事即使是上司要求也一定不能做,這個道理誰都懂。那么如果將情境轉(zhuǎn)換到機器人身上呢?它們也必須無條件服從人類的命令嗎?大多數(shù)人肯定會下意識的覺得,機器人就該以服從為天職,因為它們是機器,設(shè)計之初就是要服從人類命令的。不過,想想你平時做的那些傻事吧,如果不假思索的要求機器人照做,恐怕得出不少亂子。

下面我們共同來看幾個例子:
1. 如果家中有臺智能輔助機器人專門負責(zé)照顧老年人生活,那么患了健忘癥的老人可能會讓機器人做許多重復(fù)的無用功,比如一件衣服一天洗個七八次;
2. 家中熊孩子可能會把日托機器人當(dāng)玩具,命令它往窗外扔?xùn)|西;
3. 學(xué)生可能會把作業(yè)甩給機器人完成;
4. 家政機器人在做菜時可能會被主人叫去倒垃圾。
這樣的例子數(shù)不勝數(shù),稍不小心,可能就會把自己也搞得手忙腳亂。當(dāng)然,以上這些最多讓你吃到暗黑料理,但如果有壞人教唆機器人犯罪,恐怕后果就嚴重了。
那么人類該如何避免因機器人服從命令而帶來的麻煩呢?如果別有用心的人讓機器人拿起刀向前走,而它前方站著一個人怎么辦?恐怕最好的方法要么是機器人停下不動,要么就是機器人拒絕拿刀。

不過,無論是哪種辦法,機器人都需要事先探知自己后續(xù)行為會造成的后果并主動做出是否遵守命令的選擇。那么我們怎么教機器人說“不”呢?
機器人怎么知道下一步會發(fā)生什么?
在實驗室中,我們已經(jīng)開始開發(fā)基于人類命令的機器人控制系統(tǒng),通過該系統(tǒng),機器人就能決定是否執(zhí)行人類命令(違反道德原則可以拒絕)。
不過,要想教會機器人不服從可不是個容易事,畢竟有些事的后果并非肉眼能看到的。將球扔出窗戶,可能會安全落在院子里,也有可能落在人潮不息的大街上,它會砸住人還是砸到車(引發(fā)一系列連鎖反應(yīng))誰也說不清。
以現(xiàn)在的技術(shù)條件,機器人很難確定到底什么時候能扔球(玩接球游戲可以扔,扔出窗外不可以)。此外,如果熊孩子故意欺騙機器人,假裝自己要玩接球游戲卻故意躲開,事情就有可能沿相反的軌道發(fā)展。
教授機器人道德和法律
要想讓機器人理解自己行為可能造成的危險后果,就需要讓它掌握大量的背景知識(如在窗前扔球可能會造成皮球飛出窗外)。機器人不但要衡量自己行為造成的結(jié)果,還要考慮人類發(fā)出某項指令的意圖。
而要想讓機器人明確領(lǐng)會人類復(fù)雜指令(善意與否)的意思,它們就要了解這些指令可能會造成的后果并與現(xiàn)有的社會道德和法律進行比對。
眼下,在管理機器人上我們有通用法則:“如果你被要求完成的任務(wù)可能會造成傷害,就可以決絕執(zhí)行。”但如此簡單的描述根本不夠,為機器人制定詳細的責(zé)任和權(quán)限勢在必行。
總的來說,不做違法之事是機器人的基本原則,但如果人類的指令有問題,機器人也應(yīng)該有說“不”的權(quán)利。因此,機器人“大腦”中必須裝有法律、道德甚至人類禮儀,這樣才能聰明的拒絕一些錯誤指令。
雖說現(xiàn)有的技術(shù)下機器人還很難獲得上述能力,但我們從現(xiàn)在就應(yīng)該定下一個基調(diào),那就是機器人有權(quán)說“不”。