馬斯克等116名全球人工智能和機(jī)器人領(lǐng)域的專家近日在墨爾本舉行的人工智能國(guó)際會(huì)議上發(fā)布聯(lián)名公開信,呼吁聯(lián)合國(guó)采取行動(dòng)禁止“殺手機(jī)器人”,引發(fā)廣泛熱議。《衛(wèi)報(bào)》發(fā)表評(píng)論文章,認(rèn)為勸說國(guó)際武器貿(mào)易不要制造殺手機(jī)器人已經(jīng)太晚,無(wú)異于勸說飲料制造商不要制造橙汁。

關(guān)于116名人工智能和機(jī)器人領(lǐng)域的專家發(fā)布公開信,要求禁止“殺手機(jī)器人”(killer robots),一個(gè)回應(yīng)是:你們難道不應(yīng)該早點(diǎn)想到嗎?
特斯拉CEO馬斯克(Elon Musk)是呼吁禁止殺手機(jī)器人的專家之一。“我們沒有太多時(shí)間準(zhǔn)備了”,公開信中說,“一旦這個(gè)潘多拉的魔盒被打開,就很難再次關(guān)上。”但是,這樣的系統(tǒng)可以說早已存在了,例如BAE等開發(fā)的Taranis“無(wú)人作戰(zhàn)飛機(jī)”(UAV, Unmanned Aerial Vehicle ),三星制造的SGR-A1哨戒炮,已經(jīng)部署在韓國(guó)國(guó)界。無(wú)人坦克也已經(jīng)正在研發(fā)中,而人類對(duì)致命性無(wú)人機(jī)的控制只是何種程度的問題。
然而,殺手機(jī)器人一直在精神上與我們同在,只不過是以機(jī)器人的形式。Karel ?apek 1920年在科幻舞臺(tái)劇“RUR”(Rossum’s Universal Robots,羅梭的萬(wàn)能工人)中創(chuàng)造了“robot”這個(gè)詞(在捷克語(yǔ)中的意思是“勞動(dòng)者”)。他創(chuàng)造的類人機(jī)器人,由與劇名同名的一家工廠制造,他們反叛人類,并最終滅亡人類。從 Cybermen 到終結(jié)者(Terminator),此類的故事層出不窮。

沒有機(jī)器人啟示錄正在逼近的背景,甚至很難去思考馬斯克等人簽署的公開信所提出的問題。即使人類的滅亡不是處在生死攸關(guān),我們知道的是這些機(jī)器可能導(dǎo)致失控,其結(jié)果是《機(jī)械戰(zhàn)警》中OCP公司的機(jī)器人警察。
這樣的暗示似乎總是引出一些有關(guān)致命武器的嚴(yán)肅話題。好吧,所以一個(gè)機(jī)器人世界末日大決戰(zhàn)可能并不完全是空想的,但這些故事,以及它們?cè)斐傻纳羁痰娜祟惖目謶?,最終都是娛樂性質(zhì)的。盡管如此,類似這樣的辯論,將科幻電影描述的技術(shù)的好和壞兩極化,伴隨帶來的意義在于,只要我們避免真正壞的那些技術(shù),剩下的都是好的。
法律專家對(duì)這個(gè)問題的認(rèn)識(shí)無(wú)疑更加復(fù)雜。一方面,他們關(guān)心機(jī)器人倫理方面的更廣泛、而且越來越緊迫的問題;另一方面,這些問題關(guān)乎現(xiàn)代戰(zhàn)爭(zhēng)的性質(zhì),以及其商品化。
我們可以怎樣令自主技術(shù)系統(tǒng)更加安全,更符合道德規(guī)范?避免機(jī)器人對(duì)人類造成傷害是Isaac Asimov的《我,機(jī)器人》(I, Robot)這部作品所探討的問題,這是一部短篇故事集。這部作品對(duì)后世造成如此深遠(yuǎn)的影響,其中提出的阿西莫夫“機(jī)器人三定律”現(xiàn)在仍經(jīng)常被討論,其認(rèn)識(shí)度幾乎像牛頓的運(yùn)動(dòng)三定律一般。具有諷刺意味的是,阿西莫夫?qū)懙墓适轮饕顷P(guān)于這么動(dòng)機(jī)正確的定律如何被環(huán)境破壞。
無(wú)論如何,道德問題很難有一刀切的原則。 歷史學(xué)家Yuval Noah Harari指出,自動(dòng)駕駛汽車需要有一些原則來規(guī)定它們?cè)诿媾R不可避免、并且可能導(dǎo)致死亡的事故時(shí)應(yīng)該怎樣采取行動(dòng):機(jī)器應(yīng)該試圖保護(hù)什么?Harari 說,也許我們會(huì)被提供兩種模式:利己主義(優(yōu)先保護(hù)駕駛員)和利他主義(優(yōu)先保護(hù)其他人)。
Photograph: Melinda Sue Gordon/Allstar/Paramount Pictures
在2012年人權(quán)觀察組織一份有關(guān)殺人機(jī)器人(killer robots)的報(bào)告中,包含一些科幻小說般的預(yù)想。報(bào)告寫道:“要區(qū)分恐懼的平民和具有威脅性的敵人,需要有一名士兵去了解人類行動(dòng)背后的意圖,這是機(jī)器人做不到的事情。”報(bào)告還寫道:“機(jī)器人不會(huì)受到人類情感和人類同情心的約束,而這些是避免濫殺平民的重要制約因素。”但第一個(gè)論斷不夠令人信服——機(jī)器人可以使用生物識(shí)別技術(shù),其判斷力或許比用肉眼判斷的戰(zhàn)戰(zhàn)兢兢的士兵更準(zhǔn)確。對(duì)于第二個(gè),或許某些時(shí)候是正確的。但其他時(shí)候呢,人類在戰(zhàn)爭(zhēng)中會(huì)強(qiáng)奸和 屠殺平民。
我不是要反對(duì)這份報(bào)告中對(duì)自主機(jī)器人士兵的恐懼,因?yàn)槲乙彩沁@樣。相反,這使我們回到關(guān)鍵的問題,不是關(guān)乎技術(shù),而是關(guān)乎戰(zhàn)爭(zhēng)。
我們對(duì)戰(zhàn)爭(zhēng)倫理問題的敏感是非常任意的。人權(quán)觀察組織的報(bào)告說:“完全自主的武器的使用提出了有關(guān)責(zé)任的問題,這將削弱另一個(gè)已確立的保護(hù)平民的工具。”這是一個(gè)公平的觀點(diǎn),但不可能放到任何一個(gè)已達(dá)成一致的倫理框架內(nèi),核武器在國(guó)際上就是合法的。此外,無(wú)人機(jī)戰(zhàn)爭(zhēng),士兵強(qiáng)化技術(shù)和法律之間是一個(gè)連續(xù)統(tǒng)一體,無(wú)法分解為“人和機(jī)器”。
自動(dòng)化軍事技術(shù)的問題與戰(zhàn)爭(zhēng)本身性質(zhì)的不斷變化密切相關(guān),在恐怖主義和叛亂狀態(tài),戰(zhàn)爭(zhēng)并沒有開始和結(jié)束的時(shí)間點(diǎn),也沒有戰(zhàn)場(chǎng)或軍隊(duì):美國(guó)戰(zhàn)略分析師 Anthony Cordesman認(rèn)為:“現(xiàn)代戰(zhàn)爭(zhēng)的教訓(xùn)之一是戰(zhàn)爭(zhēng)不再被稱為戰(zhàn)爭(zhēng)。”不管我們?cè)趺刺幚恚疾粫?huì)再有像諾曼底登陸那樣的。
戰(zhàn)爭(zhēng)一直在使用最先進(jìn)的技術(shù);“殺手機(jī)器人”也同樣是。潘多拉的魔盒在鋼鐵冶煉被發(fā)明時(shí)就已打開,如果不是更早的話(而且打開魔盒的從來不是女性)。你可以確定的是,肯定有人從中獲利。
無(wú)論如何,讓我們?cè)囍糁谱?ldquo;化玉帛為干戈”的最糟糕的沖動(dòng),但勸說國(guó)際武器貿(mào)易不要制造殺人機(jī)器人,無(wú)異于勸說軟飲料制造商不要生產(chǎn)橙汁。