韓國大學(xué)研發(fā)AI武器,遭受多國專家抵制的事兒,終于有了結(jié)果。
幾天前,據(jù)路透社報道,韓國科學(xué)技術(shù)院(KAIST)正在研發(fā)人工智能武器。這家學(xué)院和韓國十大財團之一的韓華集團旗下韓華系統(tǒng)公司合作,開設(shè)了人工智能研發(fā)中心,研發(fā)適用于作戰(zhàn)指揮、目標(biāo)追蹤和無人水下交通等領(lǐng)域的人工智能技術(shù),希望在今年年底前研發(fā)出基于人工智能的導(dǎo)彈、潛艇和四軸飛行器。
這事讓包括澳大利亞、美國、日本等30多個國家和地區(qū)的研究人員坐立難安,心生擔(dān)憂。4月4日,已有50多名世界知名的AI和機器人研究人員宣布,將聯(lián)合抵制韓國科學(xué)技術(shù)院。他們在4日簽署的公開信中,敦促韓國科學(xué)技術(shù)院停止對AI武器的研發(fā),并且表示,如果該大學(xué)不承諾停止研發(fā),將與之?dāng)嘟^關(guān)系,而且將拒絕訪問韓國科學(xué)技術(shù)院、接待對方訪客或與對方合作研究項目,直至這所韓國頂尖大學(xué)承諾放棄研發(fā)缺少“有效人工控制”的武器。
公開信的發(fā)起人、澳大利亞新南威爾士大學(xué)人工智能教授托比·沃爾什在路透社的采訪中表示,人工智能技術(shù)和機器人固然能夠在軍事領(lǐng)域發(fā)揮強大的作用,但是,“我們不能將決定生死的權(quán)力交給機器,這就越過道德底線。”
公開信中也擔(dān)憂,一旦機器人武器開發(fā)競爭加速,未來的戰(zhàn)爭規(guī)模將達到“前所未有”的地步。而且,這種人工智能技術(shù),一旦被恐怖分子利用,后果不堪設(shè)想。
后來,這事兒還驚動了聯(lián)合國。
4月9日,聯(lián)合國《特定常規(guī)武器公約》政府專家小組在瑞士日內(nèi)瓦召開會議,預(yù)定討論致命自主武器系統(tǒng)研發(fā),也就是常說的“殺手機器人”可能帶來的影響。
日前,KAIST的院長Sung-chul Shin終于對此做出了回應(yīng)。他給每位抗議專家寫信,表示:“我需要重申 KAIST 無意參與致命性自主武器系統(tǒng)‘機器人殺手’的研發(fā)。作為一個學(xué)術(shù)機構(gòu),我們高度重視人權(quán)和倫理標(biāo)準(zhǔn)。我重申 ,KAIST 沒有進行任何有違人類尊嚴(yán)的研究,包括研發(fā)缺少有效控制的自主武器。”
KAIST表示,得到了保證后,參與抵制的研究人員們,已經(jīng)同意撤回和其斷絕關(guān)系的計劃,將恢復(fù)對其的訪問和合作。
托比·沃爾什似乎還有些不夠滿意,他在采訪中表示“仍然對他們研發(fā)這些打算做什么有一些疑問”,但總體來說,他也承認(rèn),KAIST也算做出了“適當(dāng)?shù)幕貞?yīng)”。
基于人工智能技術(shù)的自動武器,為什么會讓聯(lián)合國都為之動容?
讓我們來回顧下去年11月,在日內(nèi)瓦舉辦的聯(lián)合國特定常規(guī)武器公約會議上,展示的一段視頻:一群神似《黑鏡 III》中機器殺人蜂的小型機器人,通過人臉定位,瞬間便殺死了正在上課的一眾學(xué)生。
這個體型嬌小的機器人中,包含了大量的黑科技:傳感器、攝像頭,可進行人臉識別,可以基于AI技術(shù)躲避狙擊,更可怕的是,在它的中部,還有3克炸藥,完全可以做到一擊致命。
在視頻結(jié)尾,伯克利大學(xué)教授Stuart Russell提醒所有人,這種殺人機器人并非真實,但是其中的科技手段都已經(jīng)在現(xiàn)實中存在。而可以想象,一旦這些技術(shù)被恐怖分子所掌握,可以造成何等可怕的后果。
因此,專家和研發(fā)人員們,才一力要避免視頻中的悲劇在未來發(fā)生。
會后,超過200名來自學(xué)界和業(yè)界的加拿大科學(xué)家和100名澳大利亞科學(xué)家聯(lián)名寫了公開信給本國總理,呼吁通過限制相關(guān)研究。
《黑鏡》只是一部科幻作品,但基于AI技術(shù)的攻擊性武器,卻并非虛幻。
2018年初,據(jù)外媒報道,Google正與美國國防部合作,開發(fā)無人家軟件。應(yīng)用了Google的機器學(xué)習(xí)技術(shù)后,軍方的無人機識別效果也將更為精準(zhǔn)。
根據(jù)美國國防部發(fā)布的報道表示,這個名為“Maven”de 項目,旨在幫助處理軍方收集的“數(shù)百萬個小時的無人機拍攝視頻”,可以為其提供精準(zhǔn)識別個人的能力。
在韓國科學(xué)技術(shù)院的研發(fā)受到抵制的同時,一封公開信已在Google內(nèi)部流傳。超過3100名Google員工在上面簽名,要求公司退出五角大樓的軍事計劃,并同意“永不開發(fā)戰(zhàn)爭技術(shù)”。
因此,你可以理解,當(dāng)韓國科學(xué)技術(shù)院將AI武器研發(fā)提上日程時,為何會引發(fā)如此大的反應(yīng)。
尤其是,和其合作的韓華集團,曾是韓國最大的武器生產(chǎn)商之一。它所生產(chǎn)的集束炸彈,根據(jù)《集束彈藥》公約,被120個簽署國禁止使用。
在各個領(lǐng)域內(nèi),AI應(yīng)用都將發(fā)揮巨大的作用。但是,將其用于“殺人”,卻違背了一切研發(fā)它的科研人員的初衷。
而另外,還有一個存在的擔(dān)憂是,AI的內(nèi)心,也仍然由我們所不理解的“黑暗”的一面,那就是人工智能尤其是深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的“黑箱”——你能解釋清楚一個AI系統(tǒng)是如何得出結(jié)論的碼?
深度學(xué)習(xí)在近年來,已經(jīng)被證明是非常強大的解決問題的方式,并已經(jīng)被廣泛應(yīng)用,比如在圖像識別、語音識別和語言翻譯中。但是,人類首先需要能找到方法,證明深度學(xué)習(xí)技術(shù)能夠更理解它們創(chuàng)造者的意圖,以及向用戶負(fù)責(zé)。
美國軍方正投入數(shù)十億美元,使用機器學(xué)習(xí)來引導(dǎo)車輛和飛機識別目標(biāo),并幫助分析人員篩選出大量的情報數(shù)據(jù)。不同于其他領(lǐng)域,甚至是醫(yī)學(xué)領(lǐng)域,國防部已經(jīng)將證明機器學(xué)習(xí)的“可解釋性”看做一個關(guān)鍵的“絆腳石”。
David Gunning,美國國防高級研究計劃局的項目負(fù)責(zé)人,負(fù)責(zé)一項名為Explainable Artificial Intelligence program的人工智能“可解釋性”項目。這位滿頭銀發(fā)的老兵,曾監(jiān)督DARPA項目,最終導(dǎo)致Siri的成立。情報分析人員正在測試機器學(xué)習(xí),作為識別大量監(jiān)控數(shù)據(jù)模式的一種方法;許多自主地面車輛和飛機正在開發(fā)和測試。但如果一個機器坦克不能解釋自己的行為,士兵可能感到不舒服,分析師也將不愿意對沒有理由的命令采取行動。Gunning說:“這些機器學(xué)習(xí)系統(tǒng)的本質(zhì)往往是產(chǎn)生大量的假警報,所以分析師真的需要額外的幫助來理解它為什么要做一個推薦。”
所以,一向支持“AI威脅論”的馬斯克又在近期秀了一把存在感。美國電影導(dǎo)演克里斯·潘恩(Chris Paine)制作了一部紀(jì)錄片中,調(diào)查了一些人工智能的應(yīng)用實例,包括自動武器、華爾街的技術(shù)算法等。馬斯克則警告說,人工智能“不需要作惡,就可能摧毀人類。”
這次韓國大學(xué)研發(fā)AI武器的風(fēng)波似乎已經(jīng)過去。令人欣慰的是,我們也看到了,全球AI研發(fā)人員的道德界線。但是,對于AI“殺人武器”的擔(dān)憂和討論,卻仍將繼續(xù)。
無論“作惡”的是AI本身,還是人類,我們是否能夠一直將之處于控制之中呢?