美國《匹茲堡論壇評論報》網(wǎng)站5月18日刊登題為《軍隊越來越多使用地面機器人,引發(fā)倫理擔(dān)憂》一文。文章稱,如果朝鮮領(lǐng)導(dǎo)人金正恩果真下令朝鮮人民軍進入非軍事區(qū),那么恭候他們的可能是一隊韓國機器人。據(jù)稱,三星公司的一家子公司打算向局勢緊張的韓朝邊境部署哨兵機器人。這些機器人將配備機關(guān)槍和相機,還有熱成像儀和可以偵測到2.5英里以外的入侵者的激光測距器。
軍隊開始使用機器人
三星泰科株式會社說,射擊的指令必須由待在遠處掩體里的一個真人發(fā)出。但是專家說,一名電腦操作員就可以侵入機器人內(nèi)部,使它能自主作出殺人決定。三星泰科南美地區(qū)應(yīng)用工程總監(jiān)亞歷克斯·帕索斯說:“如果需要作出射殺決定,某人必須開啟(機槍上的)扳機或是輸入密碼。”
該公司生產(chǎn)的未攜帶武器的監(jiān)視機器人已經(jīng)在南美投入使用。這些機器人代表著最尖端的計算機網(wǎng)絡(luò)技術(shù),目前機器人已經(jīng)越來越多地掌握了生殺大權(quán)。眼下,機器人已經(jīng)可以熟練地在禁止人員入內(nèi)的朝鮮半島非軍事區(qū)這樣的地方作出一些難度不大的選擇。
文章說,盡管天空中的無人機吸引了眾多目光,但一項調(diào)研發(fā)現(xiàn),地面機器人——好萊塢科幻電影的現(xiàn)實版本——正變得越來越聰明、越來越致命,促使人們不斷降低倫理底線。美國陸軍現(xiàn)有7000多個較為簡單的地面機器人,執(zhí)行偵察以及炸彈探測和拆除等任務(wù)。
對軍用機器人持反對立場的非盈利性國際組織——國際控制機器人武器委員會的聯(lián)合創(chuàng)始人彼得·阿薩羅說:“不能把生殺大權(quán)交給機器,這有道德和倫理上的原因。不能僅僅因為你能準(zhǔn)確區(qū)分平民和戰(zhàn)斗人員,就說你對戰(zhàn)斗人員使用致命武力是對的,就算是對符合法律界定的戰(zhàn)斗人員使用致命武力也是不對的。”
在有地圖導(dǎo)航的區(qū)域——比如說一家工廠車間——行動時,機器人可以大致感知周遭的變化,并提醒人注意闖入者。它們在情況不明地帶的表現(xiàn)要差一些,而且不能很好地找出混入己方的敵人。
有鑒于此,警衛(wèi)機器人公司首席技術(shù)官吉姆·岡德森說,現(xiàn)在距離讓機器人在極度混亂的人類世界中自由行事還很遠很遠。該公司剛剛在丹佛成立,致力于生產(chǎn)不配備武器的哨兵機器人。岡德森說:“我知道它們有多聰明,這也意味著我知道它們有多蠢?!督K結(jié)者》系列電影讓許多人感到泄氣:我們把武器交給機器人,結(jié)果機器人覺得再也不需要我們了。”
五角大樓的指令
文章稱,五角大樓設(shè)法緊跟殺手機器人發(fā)展的步伐。美國國防部在2012年11月曾頒布一道指令,要求研制無須人類監(jiān)督便可殺人的機器人必須得到特別批準(zhǔn)。該指令要求制造商把機器人作出無意識攻擊行為——或被黑客控制——的可能性降到最低。
美國國防部發(fā)言人吉姆·格雷戈里中校說:“這道指令的意圖是領(lǐng)先于技術(shù)發(fā)展。它并非是由某個具體事件或者某項具體能力導(dǎo)致的,而是基于如下判斷,即隨著技術(shù)突飛猛進,運用自主性更強的系統(tǒng)的能力注定與日俱增。”
文章指出,盡管美國軍方現(xiàn)在還沒有能自主殺人的機器,但它已經(jīng)有能發(fā)起非致命攻擊或保衛(wèi)艦船和軍隊的自主機器人。雷神公司研制的“方陣”系統(tǒng)——昵稱“R2-D2”(電影《星球大戰(zhàn)》中機器人角色名)——已經(jīng)部署在145艘海軍軍艦上,它能不間斷監(jiān)視天空和水域,以防遭襲。該系統(tǒng)可以發(fā)現(xiàn)10英里外的物體,在距離5英里時確認(rèn)是否屬敵方襲擊,并在距離2英里時摧毀來襲物體。“方陣”每分鐘可以自主發(fā)射4500發(fā)口徑20毫米的鎢彈。
海基“方陣”系統(tǒng)從未向敵人射擊過,但是陸基“方陣”系統(tǒng)在伊拉克攔截了177次襲擊,并且從未發(fā)生過意外。五角大樓發(fā)言人莫琳·舒曼說,五角大樓認(rèn)為在可預(yù)見的未來并不需要自主殺人機器人。“機器人與一支部隊的關(guān)系,就好比軍犬與士兵的關(guān)系”。
殺人機器人的倫理問題
美國海軍研究生院倫理學(xué)與公共政策教授喬治·R·盧卡斯說,可能并非每個人都希望看到能制造會思考、攜帶武器的機器人的技術(shù),“我不認(rèn)為那會在近期成為現(xiàn)實”。
文章稱,機器人技術(shù)倫理學(xué)家的爭論焦點仍然是,能否教會機器人遵守道德以及何時殺人。佐治亞理工學(xué)院的機器人倫理學(xué)教授羅納德·阿金認(rèn)為,也許可以開發(fā)出計算機化的道德觀念,以幫助機器人回答復(fù)雜的問題。阿金說:“當(dāng)然能對機器人進行編程,讓它們作出關(guān)乎生死的決定。問題在于,它們是否能作出符合倫理的正確決定,甚至作出比真人士兵更正確的決定。”
在某些刻板的情境中,機器人可能已經(jīng)接近上述程度了:三星泰科公司已經(jīng)向秘魯出售了非武裝機器人用于港口安檢,該公司還和美國與巴拿馬官員洽談了將機器人用在機場的事宜。該公司發(fā)言人李池善(音)說,三星泰科打算把武裝機器人部署在朝鮮半島非軍事區(qū)。
韓國軍方發(fā)言人許康文(音)中校說,與人相比,這些機器人能夠負(fù)責(zé)更廣的區(qū)域,可以在幾乎任何天氣條件下工作,并使用尖端的靈敏元件來發(fā)現(xiàn)侵入者。他說,是否射擊將由一名士兵來決定。他拒絕透露這些機器人的具體部署情況以及部署成本。
盧卡斯教授說,機器人可以不知疲倦地工作,它們既不擔(dān)心遭到報復(fù),也不會想去報復(fù),這意味著在某些情況下,機器人可能比人犯的錯誤更少。“如果機器人哨兵更可靠——因為它不關(guān)心自己的安危,能夠更仔細(xì)地執(zhí)行警戒任務(wù),能夠警告目標(biāo)停止行動并離開、否則就將使用致命武力,并且在邊境誤傷人員的幾率比韓國士兵低,那么我就認(rèn)為機器人是件好事。”