国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫(kù)卡  碼垛機(jī)器人  機(jī)械手 

軍用人工智能泛濫將比核武器更可怕

   日期:2016-05-12     來(lái)源:和訊網(wǎng)    作者:lx     評(píng)論:0    
標(biāo)簽:
   

      有評(píng)論文章指出,你越是近距離地觀察機(jī)器人在戰(zhàn)爭(zhēng)硝煙中可能的用處,就越難分辨出道德的界限。(有限自主的)機(jī)器人已經(jīng)被用于戰(zhàn)場(chǎng)上,應(yīng)用在拆彈、排雷和反導(dǎo)系統(tǒng)等。它們的應(yīng)用范圍還將大為擴(kuò)大。這篇文章具有一定參考意義。
 
  想象一下這樣的未來(lái)場(chǎng)景:以美國(guó)為首的聯(lián)軍正在逼近敘利亞的拉卡(Raqqa),決心消滅“伊斯蘭國(guó)”(ISIS)。多國(guó)部隊(duì)出動(dòng)一批致命的自主機(jī)器人,圍著城市四處飛行,追蹤敵人。
 
  利用面部識(shí)別技術(shù),這些機(jī)器人識(shí)別和殺死ISIS的指揮官,斬落了這個(gè)組織的頭目。在聯(lián)軍和平民傷亡最少的情況下,瓦解了不知所措、士氣低落的ISIS部隊(duì)。
 
  有誰(shuí)不認(rèn)為這是很好地運(yùn)用了技術(shù)呢?
 
  事實(shí)上,有很多人不這么認(rèn)為,包括人工智能領(lǐng)域的很多專家,他們最了解研發(fā)這種武器所需要的技術(shù)。
 
  去年7月,眾多人工智能研究人員發(fā)表了一封公開信,警告稱這種技術(shù)已經(jīng)發(fā)展到一定程度,幾年以后——而無(wú)需幾十年——就有可能部署“致命自主武器系統(tǒng)”(Lethal Autonomous Weapons Systems,它還有一個(gè)不相稱的簡(jiǎn)稱,Laws,意為“法律”)。不像核武器,這類系統(tǒng)可以以低廉成本大規(guī)模生產(chǎn),成為“明天的卡拉什尼科夫步槍(Kalashnikov,即AK-47)”。
 
  “它們?cè)缤頃?huì)出現(xiàn)在黑市上,落入恐怖分子、希望更好地控制民眾的獨(dú)裁者和想要進(jìn)行種族清洗的軍閥的手中,”他們表示,“在軍用人工智能領(lǐng)域開啟一場(chǎng)軍備競(jìng)賽是一個(gè)壞主意,應(yīng)該對(duì)超出人類有效控制的攻擊性自主武器施加禁令,以防止這樣的軍備競(jìng)賽。”
 
  美國(guó)大體上已承諾放棄使用攻擊性自主武器。本月早些時(shí)候,聯(lián)合國(guó)(UN)在日內(nèi)瓦舉行了有94個(gè)軍事強(qiáng)國(guó)參加的新一輪談判,旨在擬定一項(xiàng)限制此類武器使用的國(guó)際協(xié)定。
 
  主要論據(jù)是道德層面上的:賦予機(jī)器人殺人的代理權(quán),將越過一條永遠(yuǎn)不應(yīng)被越過的紅線。
 
  因?yàn)殚_展反對(duì)地雷的運(yùn)動(dòng)而獲得諾貝爾和平獎(jiǎng)的喬迪· 威廉斯(Jody Williams)是“阻止殺手機(jī)器人運(yùn)動(dòng)”(Campaign To Stop Killer Robots)的發(fā)言人,他表示自主武器比核武器更可怕。“如果一些人認(rèn)為把人類的生殺大權(quán)交給一臺(tái)機(jī)器是可以的,人性又何以處之?”
 
  除了純粹的道德問題以外,還有其他令人擔(dān)憂的問題。殺手機(jī)器人會(huì)降低戰(zhàn)爭(zhēng)中的人員成本,爆發(fā)沖突的可能性是否會(huì)因此提高?如何阻止這類系統(tǒng)的擴(kuò)散?當(dāng)它們出問題的時(shí)候誰(shuí)來(lái)負(fù)責(zé)?
 
  在一個(gè)哲學(xué)研討會(huì)上,反對(duì)殺手機(jī)器人的道德理由已是足夠明顯。問題在于,你越是近距離地觀察它們?cè)趹?zhàn)爭(zhēng)硝煙中可能的用處,就越難分辨出道德的界限。(有限自主的)機(jī)器人已經(jīng)被用于戰(zhàn)場(chǎng)上,應(yīng)用在拆彈、排雷和反導(dǎo)系統(tǒng)等。它們的應(yīng)用范圍還將大為擴(kuò)大。
 
  據(jù)新美國(guó)安全中心(Center for a New American Security)估測(cè),到2018年,全球范圍內(nèi)在軍用機(jī)器人方面的支出將達(dá)到每年75億美元。相比之下,該機(jī)構(gòu)預(yù)測(cè)用于商業(yè)和工業(yè)機(jī)器人的支出將為430億美元。這家位于華盛頓的智庫(kù)支持進(jìn)一步利用這類系統(tǒng),主張它們能夠顯著提高“作戰(zhàn)人員取得凌駕對(duì)手的絕對(duì)性優(yōu)勢(shì)的能力”。
 
  軍工界用其最愛使用的置身事外的論調(diào),對(duì)機(jī)器人不同的自主等級(jí)進(jìn)行了區(qū)分。第一類被稱為“人在環(huán)中”(humans-in-the-loop),包括被美軍和其他軍隊(duì)廣泛使用的“捕食者”無(wú)人機(jī)。即使一架無(wú)人機(jī)或許能夠識(shí)別目標(biāo),還是需要一個(gè)人類來(lái)按下攻擊按鈕。就像電影《天空之眼》(Eye in the Sky)生動(dòng)地體現(xiàn)出來(lái)的,這類決策可能會(huì)給人帶來(lái)道德上的痛苦,你需要在打擊關(guān)鍵目標(biāo)和造成平民傷亡的風(fēng)險(xiǎn)之間進(jìn)行權(quán)衡。
 
  第二級(jí)的自主是“人在環(huán)中系統(tǒng)”(humans-in-the-loop system),人對(duì)機(jī)器人武器系統(tǒng)進(jìn)行監(jiān)督,包括防空炮。但現(xiàn)代戰(zhàn)爭(zhēng)的速度和強(qiáng)度讓人懷疑這種人類的監(jiān)督能否形成有效控制。
 
  第三類是“人在環(huán)外系統(tǒng)”(humans-out-of-the-loop system),比如完全自主的無(wú)人機(jī),這種可能是最致命的,但也很可能是最容易禁止的。
 
  人工智能研究人員通過發(fā)表公開信,引起人們對(duì)這場(chǎng)辯論的關(guān)注,這一舉動(dòng)當(dāng)然值得贊揚(yáng)。軍備控制專家在幫助定義和應(yīng)對(duì)這一挑戰(zhàn)方面起到有用的作用,但他們的行動(dòng)步伐卻慢得讓人沮喪。“這是一次有價(jià)值的對(duì)話,”新美國(guó)安全中心的保羅· 沙勒(Paul Scharre)說,“但這是一個(gè)極其緩慢的過程。”
 
  就像在其他很多方面一樣,我們的社會(huì)在試圖理解快速變化的技術(shù)現(xiàn)實(shí)方面就已窮于應(yīng)付,更別提加以控制了。
 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行