国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫(kù)卡  碼垛機(jī)器人  機(jī)械手 

美國(guó)科學(xué)家:當(dāng)人工智能遇上倫理道德

   日期:2015-06-10     來(lái)源: 中國(guó)科學(xué)報(bào)    作者:OCY     評(píng)論:0    
標(biāo)簽:
   在近日發(fā)表于《自然》雜志上的一篇評(píng)論文章中,4位計(jì)算機(jī)領(lǐng)域的研究領(lǐng)軍者分享了他們對(duì)該領(lǐng)域的思考。
 
  目前,美國(guó)國(guó)防部高級(jí)研究計(jì)劃局(DARPA)正在推進(jìn)兩個(gè)項(xiàng)目:“快速輕型機(jī)器人”(FLA)和“敵對(duì)環(huán)境下聯(lián)合作戰(zhàn)”(CODE),前者計(jì)劃設(shè)計(jì)出一款旋翼機(jī),能夠在沒有外界操控的情況下以極高的速度在城市環(huán)境或建筑物內(nèi)部敏捷地飛行;而后者的目標(biāo)是開發(fā)無(wú)人飛行器,將能夠在完全與總部失去聯(lián)絡(luò)的情況下完成一整套攻擊程序——搜索目標(biāo)、鎖定、跟蹤、攻擊、評(píng)估。它們將有可能促成“殺手機(jī)器人”的研發(fā)。
 
  在近日發(fā)表于《自然》雜志上的一篇評(píng)論文章中,4位相關(guān)領(lǐng)域的研究領(lǐng)軍者分享了他們對(duì)智能機(jī)器社會(huì)風(fēng)險(xiǎn)的擔(dān)憂和解決方案。
 
  美國(guó)加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)教授Stuart Russell認(rèn)為,這些武器所具備的敏捷性和致命性將讓人類陷入毫無(wú)招架之力的境地,“這不是我們所夢(mèng)想的未來(lái)場(chǎng)景”。而來(lái)自英國(guó)布里斯托爾大學(xué)的機(jī)器人專家Sabine Hauert則表示,公眾無(wú)須對(duì)人工智能技術(shù)的發(fā)展感到擔(dān)憂。
 
  應(yīng)對(duì)人工智能武器表明立場(chǎng)
 
  Stuart Russel(美國(guó)加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授)
 
  人工智能(AI)和機(jī)器人領(lǐng)域的專家面臨一個(gè)重要的倫理決策:必須要決定他們是支持還是反對(duì)致命自主武器系統(tǒng)(LAWS)。此類系統(tǒng)能在幾年而非幾十年內(nèi)發(fā)展為可行的。該領(lǐng)域的風(fēng)險(xiǎn)很高,致命自主武器系統(tǒng)被描述為戰(zhàn)爭(zhēng)的第三次革命,前兩次是火藥和核武器。
 
  在幾年之內(nèi),軍方就可以組裝帶有武器的四軸飛行器和微型坦克,這些自動(dòng)的飛行器和坦克不需要人類干預(yù),自己能決定誰(shuí)能活下來(lái)而誰(shuí)又會(huì)死去。例如,四軸飛行器能在一座城市中找到并打擊敵方戰(zhàn)士,但不包括人類能設(shè)定目標(biāo)的巡航導(dǎo)彈和遙遠(yuǎn)的無(wú)人駕駛飛機(jī)。
 
  但是,國(guó)際人道法律對(duì)于此類技術(shù)沒有任何具體的規(guī)定,現(xiàn)在也還不清楚國(guó)際社會(huì)是否會(huì)支持一個(gè)限制或禁止此類武器系統(tǒng)的條約。1949年簽訂的戰(zhàn)爭(zhēng)人道主義《日內(nèi)瓦公約》要求任何襲擊需要滿足3個(gè)條件:軍事必需、參與戰(zhàn)爭(zhēng)者和非參戰(zhàn)者差別對(duì)待、軍事目標(biāo)價(jià)值及其潛在附帶傷害的平衡。而當(dāng)前的自動(dòng)武器很難或根本無(wú)法作出這些主觀判斷。
 
  作為一個(gè)人工智能專家,我曾被要求為特定常規(guī)武器公約(CCW)第三次重要會(huì)議提供專業(yè)證據(jù)。德國(guó)等許多國(guó)家迫切要求簽署禁令,但美、英和以色列這3個(gè)LAWS技術(shù)領(lǐng)先的國(guó)家則認(rèn)為這樣一個(gè)條約沒有必要。
 
  LAWS通過(guò)允許機(jī)器選擇殺死誰(shuí),而可能侵犯人類尊嚴(yán)的基本原則。在我看來(lái),最應(yīng)當(dāng)關(guān)注的是這個(gè)技術(shù)發(fā)展軌跡的可能終點(diǎn)。我認(rèn)為超過(guò)人類控制的系統(tǒng)將建成這一點(diǎn)是不可避免的。當(dāng)然這些武器系統(tǒng)能涉及的范圍和攜帶大型武器的能力會(huì)受到物理定律的限制。然而它們的靈活性和殺傷力將讓人們毫無(wú)防御之力。這樣的未來(lái)不會(huì)是人們想要的。
 
  因此,人工智能和機(jī)器人領(lǐng)域的科學(xué)家及其所在的專業(yè)組織應(yīng)當(dāng)表明立場(chǎng),正如物理學(xué)家當(dāng)年對(duì)于核武器,抑或是生物學(xué)家對(duì)于在戰(zhàn)爭(zhēng)中使用病原體表明立場(chǎng)一樣。應(yīng)當(dāng)召開學(xué)術(shù)會(huì)議進(jìn)行討論,并讓倫理委員會(huì)參與進(jìn)來(lái)。什麼都不做就等于是表示支持繼續(xù)發(fā)展和使用。
 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行