盡管科幻電影《終結(jié)者》里的場面不會很快成為現(xiàn)實,毫無疑問的是,隨著機器人變得更加智能化且擁有更多自主權(quán),它們上位的關(guān)鍵環(huán)節(jié)在于:具備“講道德”的能力。
這并非狂言妄語。最近,《紐約客》雜志專欄作家加里·馬庫斯,撰文描繪了谷歌的無人駕駛汽車可能面臨的兩難抉擇:“你的車正以80公里時速行駛,載有40名孩子的校車錯誤地闖了紅燈。你的車是否可以為了避免事故而急轉(zhuǎn)彎,不惜危及主人的生命;還是繼續(xù)行駛,置孩子們的安危于不顧?決定必須在瞬間做出,而電腦不會撥打求援電話。”
如果把主角換成未來戰(zhàn)場上的機器人士兵,情況又會變成什么樣?如果明知一座堡壘內(nèi)有無辜平民,無人機能否學會不向可疑目標開火?我們能否教會機器人遵守國際沖突的規(guī)則?佐治亞理工學院的計算機學和機器人專家羅納德·阿金相信這是必須的,他正在開發(fā)名為“道德總督”的軟件系統(tǒng),意在讓機器人自主決定何時應該開火、何時不開火。
做到這點可能得耗費數(shù)十年,但只要堅持下去,機器人有望在身體和道德上雙雙超越人類,不受變態(tài)復仇等負面情感的左右。阿金教授表示,他并不想建立清一色的機器人大軍,而是想讓機器人和人類一道工作,承擔高風險的任務,并在壓力下做出妥當?shù)膽獙Α?/p>