5月底,聯(lián)合國人權(quán)理事會在瑞士日內(nèi)瓦開會,緊急叫停美、韓、俄、英、德、日等國各國研發(fā)“自動殺人機器人”的軍備競賽。
而在2008年,3臺攜帶武器的“劍”式地面作戰(zhàn)機器人,被美軍部署到伊拉克后,未開一槍就被撤回來了。因為,它們將槍口對向它們的人類指揮官。
機器人會不會向人類倒戈一擊,埋葬我們這個親手創(chuàng)造出它們、軀體卻弱于它們的智慧種族?
自從1950年科幻巨匠阿西莫夫?qū)懢汀段?,機器人》之后,這一直是人類的夢魘之一。從《終結(jié)者》、《黑客帝國》、《機械戰(zhàn)警》、《太空堡壘卡拉狄加》等影視作品中,我們可以親眼目睹可能成真的噩夢。

自主的機器人成為戰(zhàn)爭工具,難以保證不濫殺無辜,很可能會突破人類的倫理、道德底線。
聯(lián)合國人權(quán)理事會特別調(diào)查員克里斯多夫海因斯認(rèn)為,機器人沒有感情,不會理解和辨別人類的情感,諸如復(fù)仇、驚慌、憤怒、困惑、偏見或者恐懼,并且機器人是無法識別眼前被殺戮者是敵是友。
“而且,機器人無法為自己的行為負(fù)責(zé),不應(yīng)擁有決定人類生死的權(quán)力。”
在《我,機器人》中,為了防止機器人反噬人類,阿西莫夫提出了“機器人三定律”:一、機器人不得傷害人,也不得見人受到傷害而袖手旁觀;二、機器人應(yīng)服從人的一切命令,但不得違反第一定律;三、機器人應(yīng)保護自身的安全,但不得違反第一、第二定律。
“其實,如果武裝機器人走上戰(zhàn)場,就破壞了‘三定律’中‘不得傷害人’這一天條了。”著名科幻作家、《中國軍隊》雜志編委韓松說。
事實上,自主的人工智能控制的武器,已經(jīng)造成了巨大慘案?!盾娛率澜纭分骶庩惢⒏嬖V記者一段歷史——“1988年7月3日,游弋在波斯灣的美國海軍‘文森斯’號巡洋艦,發(fā)現(xiàn)一架伊朗民航的A300客機將飛過其上空。因為艦上防空系統(tǒng)當(dāng)時處于全自動模式,雷達將客機識別為伊朗空軍的F-14戰(zhàn)斗機,因此自動發(fā)射了‘標(biāo)準(zhǔn)’防空導(dǎo)彈,直接擊落客機,機上290人全部遇難,包括60多名12歲以下的兒童。”
事實上,目前還沒有一套控制自動系統(tǒng)出錯的有效措施。一旦機器人士兵的程序出錯,或者被人惡意篡改,很可能造成血流成河的慘劇。
因此,美國海軍的研究小組在一份研究報告中,建議為軍事機器人設(shè)定嚴(yán)格的設(shè)計和使用“緊箍咒”,否則整個世界都可能毀于他們的鋼鐵之手。