国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

機器人終將背叛人類?

   日期:2015-05-24     來源:武漢晚報    作者:OCY     評論:0    
標簽:
   《復仇者聯(lián)盟2》中,人工智能“奧創(chuàng)”背叛了人類,差點把所有人類都干掉。機器人造反簡直是科幻世界里常見的主題了??梢姡瑹o論是《超能陸戰(zhàn)隊》里的呆萌機器人“大白”還是“中博會”上會聊天、唱歌、跳舞的“小柔”,都只是低齡的童話版。當機器人一步步向我們走來,而它要造反了,怎么辦?
  下一代機器人:
  能自行決定殺戮目標
  人類一直在努力地要把機器人制造成和人一樣,能說話、能溝通、有表情、能握手、能唱歌跳舞、能完成任務。然而,人類又非常害怕那些咔咔咔咔地向我們走來的機器人,有一天會不分青紅皂白地開始殺戮,或者把我們都變成了奴隸。
  于是,阿西莫夫的機器人三定律被廣泛傳播。
  “第一,機器人不得傷害人,亦不得因不作為而致人傷害;第二,機器人必須遵循人的命令,除非違背第一定律;第三,機器人必須保護自己,除非違背第一或第二定律。”
  可是,如果你真的以為這樣就能保護人類,說明你小時候沒參加過“機器人”興趣小組。實際上任何理解機器人如何運作的人都能造出不遵從三定律的機器人。阿西莫夫自己就寫過至少三個不遵循定律的例子。(更慘的是還有機器人卡死在第二和第三條的死循環(huán)中了。)
  于是,像“終結者”那樣的機器人耀武揚威地跨過堆積如山的人類頭骨的場景經(jīng)常出現(xiàn)在科幻小說中。而在現(xiàn)實生活中,這也并非危言聳聽,目前不少國家開發(fā)了智能戰(zhàn)場機器人,引發(fā)一些政府的重重顧慮。
  機器人對軍方而言優(yōu)勢太大:無需報酬、不吃不喝不睡覺、自主執(zhí)行上級命令、不會害怕、憤怒,也不會痛苦。還有,即便機器人在戰(zhàn)場上被轟成渣,也不會造成舉國悲痛。
  但聯(lián)合國的一位調(diào)查員海恩斯曾提交過一份“致命性自主機器人”的報告。海恩斯警告,殺人機器人可自行作出攻擊目標決定,如果將此類武器補充到武器庫,則可能會“打開更大的潘多拉魔盒”。
  軍方對機器人的看法像科幻小說
  而有趣的是諾薩克的觀點。他是國際機器人控制委員會主席,同時也是英國謝菲爾德大學研究人工智能和機器人的一名教授。這位教授看過了自主武器的軍方計劃書后大為震驚,因為“軍方顯然完全過分預估了這項技術,他們對自主機器人的看法更像是科幻小說的描寫。”
  對諾薩克而言機器人根本不會遵循基本的戰(zhàn)爭法。機器人無法區(qū)分戰(zhàn)斗人員和平民,也無法分辨出哪些人是傷兵或者那些建筑是符合戰(zhàn)爭法中規(guī)定的可打擊目標。
  人們對自主機器人武器的誤解達到了不可思議的地步,其中的原因是對人工智能抱有太大期望。
  需要規(guī)則的是人類并非機器人
  有人指出在遙遠的未來人工智能可能發(fā)展成熟,電腦可以遵守戰(zhàn)爭基本法,那么最基本的道德問題依然沒有消失。
  諾薩克說:“誰該負責的問題依然沒有得到解決,人們還是要抉擇是否應該讓機器人有權殺死人類。”也就是說,這個與高科技相關的問題,其實是個倫理問題。
  “人類想出了阿西莫夫定律,但是定律本身就表明了簡單的道德規(guī)則無法運作。如果你通讀三大定律你會發(fā)現(xiàn)每條定律都說不通,阿西莫夫定律是不切實際的。”英國巴斯大學的約翰娜·博依遜教授說。
  博依遜教授強調(diào)機器人和人工智能只能被視為最先進的工具——極端復雜的工具,但是僅此而已。“人工智能只是人類千百年來改造世界的無數(shù)工具之一,不同的是改造的速度比以前更快了。”
  無論機器人的自主能力和智能達到何種水平,對博依遜來說,機器人和人工智能都只屬于工具范疇,因此需要規(guī)則的并非機器人而是人類。“人們需要在自身建立道德框架,機器人用不著擁有自己的道德框架。人類要做出選擇,把機器人放在人的道德框架之內(nèi),才不會殘殺地球上的其他生命。”
  如果人類無法自我約束,即便拴住了機器人,我們自己毀滅自己的能力,還是很強的。
 
 
更多>相關資訊
0相關評論

推薦圖文
推薦資訊
點擊排行