六年前,三位飽含創(chuàng)作熱情的大學(xué)生成立了Clear path機(jī)器人公司?,F(xiàn)在公司的80名員工能制作各種機(jī)器人,比如美國國防部使用的一種四輪機(jī)器人車輛,比如無人機(jī),甚至還制造了機(jī)器船。若說這家公司有什么特別,那就是他們永遠(yuǎn)不會(huì)制造殺手機(jī)器人。
目前Clear path是第一家,也是唯一一家承諾不會(huì)制造殺手機(jī)器人的公司。公司CTO Ryan Gariepy說,這是去年的一個(gè)簡單決定,但它甚至幫助公司招募了一批機(jī)器人專家。這些人都是Clearpath獨(dú)特的道德倫理立場(chǎng)所吸引。
道德倫理問題已成為機(jī)器人公司的重中之重,殺手機(jī)器人時(shí)代即將來到,但我們毫無準(zhǔn)備。韓國Dodam systems制造了超級(jí)神盾Ⅱ自主機(jī)器人炮塔,它使用熱成像儀和激光測(cè)距儀來識(shí)別并攻擊3公里內(nèi)的目標(biāo);而美國也在試驗(yàn)自治導(dǎo)彈系統(tǒng)。
沒有一絲防備
現(xiàn)在的軍用無人機(jī)仍被人類控制,但Gariepy表示,不用花費(fèi)太多時(shí)間就可讓它們實(shí)現(xiàn)完全自動(dòng)和自導(dǎo)。
“致命自動(dòng)武器系統(tǒng)就要出現(xiàn),但我們還沒準(zhǔn)備好用道德的方式來部署或設(shè)計(jì)這種自動(dòng)武器系統(tǒng)。”
這是國際法的問題,也是編程的問題。在戰(zhàn)爭中,某些情況下使用武力似乎是必要的,但也可能將無辜的人們置于險(xiǎn)境。我們?nèi)绾未蛟煸谌魏吻闆r下都能做出正確決定的殺手機(jī)器人?什么又才是正確的決定?
自動(dòng)駕駛汽車也有類似的問題,比如一條狗突然出現(xiàn)在高速公路上,汽車是否應(yīng)該避開狗,但將乘客的安全置于險(xiǎn)境?但如果出現(xiàn)的不是狗,而是一個(gè)孩子,或一輛校車呢?現(xiàn)在再設(shè)想一下戰(zhàn)場(chǎng)。
“我們?cè)谲囕v問題上都沒法達(dá)成一致,而現(xiàn)在要討論的問題已經(jīng)是,建立一個(gè)自己可以決定什么時(shí)候保護(hù)生命、什么時(shí)候采取致命武力的系統(tǒng)。”
制造炫酷機(jī)器人,而不是致命武器
Peter Asaro是機(jī)器人武器控制國際委員會(huì)的創(chuàng)始人,過去幾年一直在游說國際聯(lián)盟對(duì)機(jī)器人殺手下禁令。這這樣才能讓諸如ClearPath這樣的公司開始生產(chǎn)一些炫酷的產(chǎn)品,而不用擔(dān)心自己的產(chǎn)品被拿去威脅平民。
軍隊(duì)對(duì)自治導(dǎo)彈很有興趣,這解決了一個(gè)戰(zhàn)術(shù)問題:當(dāng)遠(yuǎn)程控制的無人機(jī)的傳感器或網(wǎng)絡(luò)連接被破壞時(shí),他們無法控制無人機(jī)。
但是Gariepy認(rèn)為,與其研發(fā)自主決定攻擊目標(biāo)的導(dǎo)彈或無人機(jī),還不如花錢研究傳感器和抗干擾技術(shù)。
“我們?yōu)槭裁床话淹顿Y用于讓現(xiàn)有的無人機(jī)技術(shù)更有效率?如果我們面對(duì)并且克服這些困難,就可以讓部隊(duì)以外的普通人也受益。”
最近已經(jīng)有很多關(guān)于人工智能的危險(xiǎn)的討論。Elon Musk擔(dān)心失控的人工智能會(huì)摧毀我們的生活。上個(gè)月,Musk捐贈(zèng)了1000萬美元用于研究人工智能背后的道德倫理問題。另一些人,例如百度研究院員吳恩達(dá),擔(dān)心未來的人工智能革命會(huì)減少就業(yè)崗位。
也許是時(shí)候站在道德的角度,嚴(yán)肅思考機(jī)器人的事情,就像Gariepy說做的那樣。