国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

美國科學家:當人工智能遇上倫理道德

   日期:2015-06-10     來源: 中國科學報    作者:OCY     評論:0    
標簽:
   在近日發(fā)表于《自然》雜志上的一篇評論文章中,4位計算機領域的研究領軍者分享了他們對該領域的思考。
 
  目前,美國國防部高級研究計劃局(DARPA)正在推進兩個項目:“快速輕型機器人”(FLA)和“敵對環(huán)境下聯(lián)合作戰(zhàn)”(CODE),前者計劃設計出一款旋翼機,能夠在沒有外界操控的情況下以極高的速度在城市環(huán)境或建筑物內(nèi)部敏捷地飛行;而后者的目標是開發(fā)無人飛行器,將能夠在完全與總部失去聯(lián)絡的情況下完成一整套攻擊程序——搜索目標、鎖定、跟蹤、攻擊、評估。它們將有可能促成“殺手機器人”的研發(fā)。
 
  在近日發(fā)表于《自然》雜志上的一篇評論文章中,4位相關領域的研究領軍者分享了他們對智能機器社會風險的擔憂和解決方案。
 
  美國加州大學伯克利分校的計算機科學教授Stuart Russell認為,這些武器所具備的敏捷性和致命性將讓人類陷入毫無招架之力的境地,“這不是我們所夢想的未來場景”。而來自英國布里斯托爾大學的機器人專家Sabine Hauert則表示,公眾無須對人工智能技術的發(fā)展感到擔憂。
 
  應對人工智能武器表明立場
 
  Stuart Russel(美國加州大學伯克利分校計算機科學教授)
 
  人工智能(AI)和機器人領域的專家面臨一個重要的倫理決策:必須要決定他們是支持還是反對致命自主武器系統(tǒng)(LAWS)。此類系統(tǒng)能在幾年而非幾十年內(nèi)發(fā)展為可行的。該領域的風險很高,致命自主武器系統(tǒng)被描述為戰(zhàn)爭的第三次革命,前兩次是火藥和核武器。
 
  在幾年之內(nèi),軍方就可以組裝帶有武器的四軸飛行器和微型坦克,這些自動的飛行器和坦克不需要人類干預,自己能決定誰能活下來而誰又會死去。例如,四軸飛行器能在一座城市中找到并打擊敵方戰(zhàn)士,但不包括人類能設定目標的巡航導彈和遙遠的無人駕駛飛機。
 
  但是,國際人道法律對于此類技術沒有任何具體的規(guī)定,現(xiàn)在也還不清楚國際社會是否會支持一個限制或禁止此類武器系統(tǒng)的條約。1949年簽訂的戰(zhàn)爭人道主義《日內(nèi)瓦公約》要求任何襲擊需要滿足3個條件:軍事必需、參與戰(zhàn)爭者和非參戰(zhàn)者差別對待、軍事目標價值及其潛在附帶傷害的平衡。而當前的自動武器很難或根本無法作出這些主觀判斷。
 
  作為一個人工智能專家,我曾被要求為特定常規(guī)武器公約(CCW)第三次重要會議提供專業(yè)證據(jù)。德國等許多國家迫切要求簽署禁令,但美、英和以色列這3個LAWS技術領先的國家則認為這樣一個條約沒有必要。
 
  LAWS通過允許機器選擇殺死誰,而可能侵犯人類尊嚴的基本原則。在我看來,最應當關注的是這個技術發(fā)展軌跡的可能終點。我認為超過人類控制的系統(tǒng)將建成這一點是不可避免的。當然這些武器系統(tǒng)能涉及的范圍和攜帶大型武器的能力會受到物理定律的限制。然而它們的靈活性和殺傷力將讓人們毫無防御之力。這樣的未來不會是人們想要的。
 
  因此,人工智能和機器人領域的科學家及其所在的專業(yè)組織應當表明立場,正如物理學家當年對于核武器,抑或是生物學家對于在戰(zhàn)爭中使用病原體表明立場一樣。應當召開學術會議進行討論,并讓倫理委員會參與進來。什麼都不做就等于是表示支持繼續(xù)發(fā)展和使用。
 
 
更多>相關資訊
0相關評論

推薦圖文
推薦資訊
點擊排行