美國聯(lián)軍司令部的戈登?詹森對軍事機器人有句名言:“它們不會饑餓,不會害怕,但會牢牢記住自己的使命。”
如果在現(xiàn)實中,軍事機器人發(fā)生故障或出錯會怎樣?謝菲爾德大學人工智能教授諾埃爾?夏基說,目前的自主機器人還無法準確區(qū)分平民和戰(zhàn)斗人員,但這是國際法和國際人道主義的基石。他還強調(diào),即便是具有人工智能的機器人,也會缺乏人類所擁有的一種微妙的判斷和拿捏能力―――如何在獲得軍事優(yōu)勢的前提下最大限度地避免平民傷亡。因為,即便是在戰(zhàn)爭中,不必要的殺戮也是可恥的?! ?/p>
美國海軍研究室的研究報告承認,在自動機器人上有倫理和法律障礙。這份文件中稱,“明智的做法”是為自動機器人編入至少與人類士兵一樣的倫理程序,雖然即使這樣“意外也有可能發(fā)生”。但這至少將其納入了法律范疇?! ?/p>
紐約大學計算機學科學家羅布?亞歷山大則表達了不同的看法,他說:“這一步或許有些太遠。一臺機器無論如何也無法承擔法律或道德責任,在可以預見的未來里都是如此,我們不是在談論電影《星際迷航》里面的機器人。這些責任必須由操作者或設計者來承擔。”
除了智能機器人可能犯下的錯誤外,另外還需要注意到的一點是:這些高科技武器的出現(xiàn)和發(fā)展不但改變了現(xiàn)代戰(zhàn)爭的局面,也提供了一種新的“低成本、低消耗”的戰(zhàn)爭方式。
諾埃爾?夏基說,這可能會降低戰(zhàn)爭的門檻。此前對戰(zhàn)爭發(fā)起者而言壓力最大,也是在抑制戰(zhàn)爭上非常重要的一個因素就是死亡人數(shù),但在無需人員直接前往前線的機器人戰(zhàn)爭中,這一切將變得不再重要。而真正的危險在于,自助式機器人將減少發(fā)動戰(zhàn)爭的政治成本,從而使其不再成為最后的手段。