国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 發(fā)那科機器人  工業(yè)  機器人  上海  ABB機器人  自動化  工業(yè)機器人  工業(yè)機器人展  機器  展會 

人工智能:“天使”or“魔鬼”?

   日期:2018-01-12     來源:解放軍報    作者:dc136     評論:0    
標簽: 人工智能
    剛剛過去的一年,人工智能帶來的沖擊一波接著一波:繼谷歌人工智能程序“阿爾法狗”碾壓中韓頂級棋手后,全球第一個被授予“公民身份”的機器人索菲亞又揚言“要毀滅人類”,接著出現(xiàn)了會后空翻的機器人“阿特拉斯”,以及可執(zhí)行“斬首”任務的微型無人機紛紛登臺亮相……
 
  在人工智能高速發(fā)展的今天,正如許多專家所預言的那樣,戰(zhàn)爭機器人可能是繼核武器之后,又一把懸在人類頭上的“達摩克利斯之劍”。這引發(fā)人們深思:人工智能究竟會被“馴服”,成為人類的朋友?還是會“叛逆”,給人類帶來無盡的災難?
人工智能:“天使”or“魔鬼”?
  難以抗拒的誘惑

  高度智能化突破人類生理極限
 
  人工智能作為物聯(lián)網、大數據、先進算法和強大計算能力支持下的一種“群技術”,通過賦予“物”以人的智力,模擬和擴展人的智慧,輔助甚至代替人實現(xiàn)多種功能,進行認識、分析、決策、行動等活動。其核心優(yōu)勢是高度自主性,能夠較少或完全不需要人工干預就可完成復雜、繁重和精確性高的任務。
 
  人工智能可以使人從繁重的重復性工作中解放出來,專注于發(fā)現(xiàn)性、創(chuàng)造性的工作。比如,在以前的指揮決策中,指揮人員85%的時間用于情報處理分析,只有15%的時間考慮作戰(zhàn),而采取智能化情報處理系統(tǒng)后正好相反?,F(xiàn)代戰(zhàn)場態(tài)勢高度復雜、瞬息萬變,完全依賴人的認知去理解戰(zhàn)場態(tài)勢變得越來越困難。而運用智能化數據處理技術,就可以在大數據中發(fā)現(xiàn)復雜事物間的關系,從本質上突破人類分析聯(lián)系事物的局限性,還可依據對大量戰(zhàn)場數據的分析,提供可行性的決策建議。
 
  人工智能具備自主學習能力,且運算精確度高,不受環(huán)境與心理等因素影響。2017年12月14日,美國宇航局宣布利用谷歌人工智能機器人的學習能力,對開普勒太空望遠鏡收集的3.5萬個可能的行星信號、140億個數據點及大約2萬億個行星軌道進行分析,發(fā)現(xiàn)了首個幾乎和太陽系一樣的星系,其效率和準確性遠超傳統(tǒng)的分析方法。同樣,高度自主化的無人作戰(zhàn)系統(tǒng),在后方操縱人員的監(jiān)控下,能夠自動搜索和跟蹤目標,自主識別環(huán)境并規(guī)劃機動路線,快速捕捉戰(zhàn)機實施精確打擊。
 
  人工智能還可通過計算機視覺、語音處理、自然語言處理等技術,使系統(tǒng)更加精準地理解人的行為并按照人的意志行動,實現(xiàn)人機高度融合。比如,在智能控制領域,能夠通過語音方式下達指令,由系統(tǒng)轉化為機器語言,實現(xiàn)作戰(zhàn)命令的快速下達和武器裝備的精確操控。在單兵助力方面,外骨骼系統(tǒng)可通過感知人體運動意圖,提升士兵的承載攜行、搬舉能力,同時又能實現(xiàn)人機一體化,保持士兵的高度靈活性。

  可以預見的風險

  人工智能帶給人類巨大威脅
 
  美國“臉書” CEO馬克·扎克伯格曾放言:“人類當下面臨的最大威脅是什么?無疑是人工智能!”但就當前來講,人工智能的“威脅”還不存在,因為它只專注于完成某個特別設定的任務,比如下圍棋就僅僅會下圍棋。而未來超過人類智慧的超人工智能具備知識遷移能力,可以充分利用已掌握的技能解決新問題,這就有可能給人類造成巨大威脅。
 
  實現(xiàn)高度自主并可能“失控”。未來超人工智能開始具備自主思維意識,能夠像人類一樣獨立思考,并自我決定如何行動。因此,自主智能機器系統(tǒng)雖然由人類設計制造,但它們的行為卻不受人類的直接指令控制,而是可以基于在不同情境中對其所獲得的信息進行分析、判斷和決策,形成不需要人類介入或干預的“感知—思考—行動”模式,并最終超出創(chuàng)造者預料或事先控制的范圍而失控。
 
  這種高度智能化的系統(tǒng)還能夠通過學習進行機器再造,可以快速復制或再生其他新的人工智能體。據專家推算,一個失去控制的正在自我復制的納米機器人,完成130個復制周期只需要3個半小時,考慮到納米機器人向外移動擴張等因素,最多只需數周就可以“摧毀”地球上的一切生物。這也就是為什么霍金多次“告誡”人們:人工智能一旦脫離束縛,就會以不斷加速的狀態(tài)重新設計自身。而人類由于受到漫長生物進化的限制,無法與之競爭,最終或將被取代。
 
  遭遇非法入侵可能被“黑化”。人工智能作為一種新興的技術領域,一般來說,沒有安全漏洞是不可能的。而如果有人利用這種漏洞控制智能系統(tǒng)或機器人去實施破壞活動,這樣的后果是極其可怕的。而且,隨著人工智能的發(fā)展,其他工具包括人工智能的技術開發(fā)和復制也變得越來越容易。也就是說,未來任何人都可以使用該系統(tǒng)去實現(xiàn)自我復制或繁殖其他人工智能系統(tǒng)。因此,超人工智能系統(tǒng)一旦被非法獲取或操縱,將產生巨大的破壞力量。
 
  爆發(fā)機器戰(zhàn)爭造成武力“濫用”。未來大量智能化無人系統(tǒng)將運用于戰(zhàn)場,“死傷”的主要是沒有生命并可以大量再造的“智能機器”,使戰(zhàn)爭成本大大降低,并能夠實現(xiàn)作戰(zhàn)人員的“零傷亡”。戰(zhàn)爭的政治、外交風險明顯降低,這就可能會因戰(zhàn)爭顧慮和壓力減少而降低戰(zhàn)爭決策的門檻,導致軍事強國在武力使用上更加隨意,從而使戰(zhàn)爭的爆發(fā)更加頻繁,戰(zhàn)爭從“最后的選擇”轉變?yōu)?ldquo;首先的手段”。為此,許多科學家呼吁禁止“致命性自主式武器”的研發(fā)和使用,并警告這將引發(fā)全球性人工智能“軍備競賽”,人類社會將可能深陷戰(zhàn)爭泥潭。

  未雨綢繆的防范

  給人工智能戴上“緊箍咒”
 
  霍金曾這樣評價人工智能:“它既可能成為人類迄今發(fā)生過的最好的事,也可能成為最糟糕的事”。我們既不能盲目樂觀,也不能因噎廢食,必須及早給未來人工智能的發(fā)展套上必要的安全、倫理等方面的“緊箍咒”,同時又不能阻礙技術創(chuàng)新和人類社會進步的步伐。
 
  從技術安全角度建立共同遵守的發(fā)展準則。根據人工智能可預見的風險,建立世界范圍內的人工智能發(fā)展準則,對研究范圍、內容、目的、用途等各個方面進行規(guī)范,確保安全、可控地發(fā)展人工智能。比如,對于智能系統(tǒng)到底應該實現(xiàn)到什么樣的自主程度,賦予其多大的自主權利以及哪些方面不能實現(xiàn)等進行明確限制。2017年1月,在美國加利福尼亞州舉辦的阿西洛馬人工智能會議上,近千名人工智能和機器人領域專家已聯(lián)合簽署了《阿西洛馬人工智能23條原則》,呼吁世界在發(fā)展人工智能時共同遵守,成為人工智能安全、有序發(fā)展的良好開端。
 
  從道德倫理角度建立科學嚴格的評估機制。人工智能主要是基于算法,而算法在本質上是“以數學方式或計算機代碼表達的意見”,是設計者、開發(fā)者的主觀創(chuàng)造,有可能將自己的偏見、價值觀嵌入算法系統(tǒng),制造出不符合社會道德規(guī)范的智能機器,這就需要對其進行嚴格評估以確保安全。2016年12月,美國電氣和電子工程師協(xié)會啟動了人工智能倫理工程,提出對嵌入智能系統(tǒng)的規(guī)范和價值進行評估,以確定其是否和現(xiàn)實中的道德價值體系相一致。我國在《新一代人工智能發(fā)展規(guī)劃》中也提出“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”。
 
  從規(guī)范運用角度建立具有法律約束力的普遍性制度條約。任何一種先進技術能否產生威脅,主要看使用者出于何種目的、如何運用。誠然,面對人工智能的巨大優(yōu)勢和潛在利益,特別是在涉及國家安全領域方面,直接禁止使用人工智能技術是不現(xiàn)實的。這正如國際上禁止或限制使用“致命性自主武器系統(tǒng)”一樣,至今無法取得任何實質性進展。因此,應呼吁建立具有法律約束力的國際性條約,對某些特殊功能的智能系統(tǒng)風險和技術擴散等進行規(guī)范和預防。
 
 
聲明:凡資訊來源注明為其他媒體來源的信息,均為轉載自其他媒體,并不代表本網站贊同其觀點,也不代表本網站對其真實性負責。您若對該文章內容有任何疑問或質疑,請立即與中國機器人網(www.baoxianwx.cn)聯(lián)系,本網站將迅速給您回應并做處理。
電話:021-39553798-8007
更多>相關專題
0相關評論

推薦圖文
推薦專題
點擊排行
?