
在戰(zhàn)場(chǎng)上投入機(jī)器人作戰(zhàn)可以保護(hù)士兵們的生命安全,然而“人權(quán)觀察”組織和哈佛大學(xué)法學(xué)院國(guó)際人權(quán)研究所日前在一份研究報(bào)告中指出,基于人工智能技術(shù)的“殺手機(jī)器人”帶來(lái)的威脅要比幫助更大。
業(yè)內(nèi)人士認(rèn)為,利用人工智能技術(shù),不久之后機(jī)器人即可獨(dú)立選擇目標(biāo)并開火,成為完全自動(dòng)化的武器。這樣的設(shè)想即將從科幻小說(shuō)成為現(xiàn)實(shí)。殺手機(jī)器人能覆蓋地面、空中和海上,從而顛覆我們對(duì)于武裝沖突和執(zhí)法的認(rèn)識(shí)。然而,這樣的顛覆應(yīng)當(dāng)引起警惕。
支持者認(rèn)為,殺手機(jī)器人是必要的,因?yàn)楝F(xiàn)代化的戰(zhàn)爭(zhēng)瞬息萬(wàn)變,而機(jī)器人的應(yīng)用將有助于保護(hù)士兵和軍官的安全。然而,如果將選擇攻擊目標(biāo)的流程完全交給機(jī)器人,那么世界將變得非常危險(xiǎn)。換句話說(shuō),在沒(méi)有人工控制的情況下,機(jī)器將掌握生殺大權(quán)。因此,一旦機(jī)器發(fā)生錯(cuò)誤,那么普通人就可能遭到機(jī)器的攻擊,而沒(méi)有任何人將為此負(fù)責(zé)。
完全自動(dòng)化的武器系統(tǒng)將帶來(lái)道德、法律和責(zé)任危機(jī),而控制這種危機(jī)的最佳方式就是通過(guò)國(guó)際法律禁令,禁止使用無(wú)人控制的武器。至少20個(gè)國(guó)家已在聯(lián)合國(guó)會(huì)議上對(duì)此表示支持,即攻擊目標(biāo)的選擇應(yīng)當(dāng)由人類來(lái)完成。
由人類來(lái)控制武器具有道德上的重要意義。人類具有感情,因此在做出傷害他人的決定時(shí)將承受感情壓力,從而更加審慎。然而機(jī)器人則缺乏真實(shí)的感情。實(shí)際上,機(jī)器人并不能理解人類生命的價(jià)值,因此讓機(jī)器人去做出這些決定是對(duì)人類尊嚴(yán)的破壞。
與此同時(shí),讓人類來(lái)操控武器是符合國(guó)際法的做法。例如,戰(zhàn)爭(zhēng)法禁止在超出軍事意義范疇外過(guò)度的殺傷和破壞。關(guān)于這樣的國(guó)際法,人類可以根據(jù)過(guò)往經(jīng)驗(yàn)和道德考量,基于不同情況來(lái)做出判斷。這是自動(dòng)化的武器所不具備的,自動(dòng)化武器不可能通過(guò)編程來(lái)考慮所有不同狀況。因此,這樣的武器不可能成為“理性的指揮官”。
在今年4月的聯(lián)合國(guó)會(huì)議上,94個(gè)國(guó)家建議對(duì)“致命的自動(dòng)化武器系統(tǒng)”展開正式討論。這一討論將考慮,這些系統(tǒng)是否應(yīng)當(dāng)根據(jù)《特定常規(guī)武器公約》受到限制。目前受這一公約限制的包括燃燒武器和致盲激光。
簽署這一公約的國(guó)家將于今年12月再次舉行會(huì)議,設(shè)定未來(lái)的工作日程。專家認(rèn)為,關(guān)于致命的自動(dòng)化武器系統(tǒng)的正式流程應(yīng)當(dāng)從2017年啟動(dòng)。