
目前不少國家開發(fā)了智能戰(zhàn)場機器人,這些機器人殺手讓人們擔心《圣經》中描述的審判之日已經離我們不遠。出于對戰(zhàn)場機器人的顧慮,不少政府開始更加關注對戰(zhàn)場機器人問題,至少距離完全禁止生產機器人殺手邁出了第一步,當然,是在機器人殺手被造出來之前。
今年11月,CCW(《特定常規(guī)武器公約》)的成員國同意明年在日內瓦舉辦會議討論“致命自主武器”的議題。這個名字是官方的叫法,抗議者們稱之為“機器人殺手”。
機器人對軍方而言優(yōu)勢太大:無需報酬、不吃不喝不睡覺、自主執(zhí)行上級命令、不會害怕、憤怒,也不會痛苦。還有,即便機器人在戰(zhàn)場上轟成渣,也不會造成國內悲痛。
從第一輛坦克投入戰(zhàn)場到以色列研制的大衛(wèi)的投石索飛彈,技術改變戰(zhàn)爭的例子不勝枚舉。近來備受爭議的戰(zhàn)爭用無人機便是例子,但是即便如此,無人機也需要人遠程控制。無論是鎖定目標還是發(fā)射導彈,做決定的都是人。
無數專家關心的其實是下一代機器人武器:可以自行決定目標并殺死目標的武器。
禁止制造機器人殺手
“明年開始全球國家將對機器人武器進行討論,這對禁止制造機器人武器是一個巨大的進步,”人權觀察的武器負責人Steve Goose說,“各國政府已經意識到全自動化武器帶來巨大的立法壓力和道德壓力,問題已經刻不容緩。”
目前完全自主機器人武器部署到戰(zhàn)場可能還需要等上20-30年,但由學者和專家組成的國際機器人控制委員會(ICRAC)擔心可能發(fā)生的機器人武器軍備競賽,認為有必要禁止研發(fā)和使用自主武器系統(tǒng)。委員會指出:“機器不能做出謀殺人類的決定。”
目前還沒有那個國家制造出自主武器,但是這個提議絕非只是紙上談兵。今年下半年美國國防部(DOD)發(fā)布了如何使用自主武器以及如何在戰(zhàn)場部署自主武器的規(guī)劃書。書中規(guī)定了如何操作自主武器,然而卻沒有只字提到禁止使用。
國防部指導中寫到:“自主和半自主武器應該能夠聽得懂指揮官或操作人員下令開火的合適命令。”規(guī)劃中要求武器要做到“足夠機動靈活,盡量避免執(zhí)行計劃外行動或讓未授權使用者操控機器。”
但是指導似乎的的確確放棄人工智能武器,而選用人類精確定位目標:“有人監(jiān)控自主武器系統(tǒng)可以用于選擇目標并向目標開火,但目標不可為人類,以應對攔截美國國內可能發(fā)生的襲擊行動,這些行動經常是時敏目標或密集目標。”
英國政府的態(tài)度則與美國相反,英國并不打算采用全自主武器。今年初英國外交部部長Alistair Burt向國會做陳述說:“英國軍隊的武器控制權始終掌握在人類手中,以此保證武器由人類監(jiān)督由人類掌管,并由人類負責使用武器。”
但是隨后Burt的言辭又讓人尋味:“英國單方面做出承諾目前階段絕不部署致命自助武器系統(tǒng),但是這不表明英國會簽署暫緩研發(fā)和使用自主機器人武器的條約。”
ICRAC主席Norl Sharker是英國謝菲爾德大學研究人工智能和機器人的一名教授。這位教授看過了自主武器的軍方計劃書后大為震驚,因為“軍方顯然完全過分預估了這項技術,他們對自主機器人的看法更像是科幻小說的描寫”。
ICRAC提議禁止研發(fā)和制造自主機器人武器的目的并不是抵抗自主機器人。“我家里用的吸塵器機器人就是自主機器人,我研究自主機器人的開發(fā)已經有30個年頭了。”
ICRAC真正希望是禁止機器人擁有“殺戮功能”。自主機器人一旦運行,就會自主尋找目標并打擊目標。Sharkey說:“打擊目標的意思是指殺死目標。把機器人設計成自己選擇自己認為合適的目標進行打擊,這就是ICRAC要阻止的。”
對Sharkey來說,機器人根本不會遵循基本的戰(zhàn)爭法。機器人無法區(qū)分戰(zhàn)斗人員和平民,也無法分辨出哪些人是傷兵或者那些建筑是符合戰(zhàn)爭法中規(guī)定的可打擊目標。“沒有任何人工智能機器人武器可以做到完全分辨目標,根本不可能。”
Sharkey博士指著英國制造的可以區(qū)分人和汽車的機器人說:“這太機器人可以分辨人和汽車,但卻分不清對面站著的是一只跳舞的狗熊還是一條兩條后腿站立的狗。”
機器人武器也不能判斷利弊。他說,機器人無法判斷某次攻擊行為造成的軍事打擊和平民傷亡孰重孰輕。“機器人怎么可能知道?軍事打擊獲得的戰(zhàn)爭優(yōu)勢都可以讓博士們發(fā)表好幾篇論文了,戰(zhàn)場上有太多變數,只有身經百戰(zhàn)的指揮官身臨戰(zhàn)場才能做出判斷。”