国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

全球人工智能發(fā)展趨勢及挑戰(zhàn)

   日期:2017-07-31     來源:世界電信    作者:dc136     評論:0    
全球人工智能發(fā)展趨勢及挑戰(zhàn)
   【前言】以深度學習等關(guān)鍵技術(shù)為核心,以云計算、生物識別等數(shù)據(jù)及計算能力為基礎(chǔ)支撐的人工智能產(chǎn)業(yè),在歷經(jīng)60年的輪回后,在2016年呈現(xiàn)井噴式爆發(fā)并大放異彩,迎來第三次浪潮。如今,人工智能在很多方面都有了突破性進展,全球人工智能的發(fā)展趨勢已經(jīng)勢如破竹,這也為人類探索未知世界之路開啟了“無窮大”之門。人工智能的發(fā)展水平正在呈指數(shù)增長的同時,也帶來眾多不可忽視的問題。在此基礎(chǔ)上,本文對人工智能的發(fā)展進行了一定程度地思考與分析。
 
  一、全球人工智能發(fā)展趨勢
 
 ?。ㄒ唬┑谌稳斯ぶ悄芾顺眮砼R
 
  2016年人工智能呈現(xiàn)井噴式爆發(fā)并大放異彩,這距人工智能概念的首次提出僅過去60年。
 
  1956年,在美國達特茅斯大學召開的學術(shù)會議上與會專家學者共同提出人工智能的概念,多年后這場會議被認定為全球人工智能誕生的標志。[1]1956年至今,人工智能的發(fā)展可謂起起落落,歷經(jīng)兩次從爆發(fā)到寒冬的革命性浪潮。第一次浪潮出現(xiàn)于20世紀60年代,在算法方面出現(xiàn)很多世界級的發(fā)明,但先天的缺陷導致人工智能在早期發(fā)展過程中遇到瓶頸,1974年到1980年人工智能迎來第一次冬天;第二次浪潮出現(xiàn)在20世紀80年代,這段時期人工智能在數(shù)學模型方面取得眾多突破,但1987年到1993年由于個人電腦的出現(xiàn),人工智能再次步入寒冬階段。[2]2016年正值人工智能發(fā)展的60年節(jié)點,AlphaGo戰(zhàn)勝人類頂級圍棋高手李世石,成為人工智能迎來第三次浪潮的里程碑事件。第三次浪潮,以大計算能力和深度學習為助推力,人工智能在很多方面都有了突破性進展,為人類探索未知世界之路開啟了“無窮大”之門。
 
 ?。ǘ┩ㄍ鶑娙斯ぶ悄?/div>
 
  人工智能可以劃分為“弱人工智能”、“強人工智能”以及“超人工智能”。“弱人工智能”只專注于完成某個特別設(shè)定的任務(wù),例如語音識別、圖像識別和翻譯,也包括近年來出現(xiàn)的IBM的Watson和谷歌的AlphaGo,它們是優(yōu)秀的信息處理者,但卻無法真正理解信息。而“強人工智能”系統(tǒng)包括了學習、語言、認知、推理、創(chuàng)造和計劃,目標是使人工智能在非監(jiān)督學習情況下處理前所未見的細節(jié),并同時與人類開展交互式學習。[3]“超人工智能”是指通過模擬人類的智慧,人工智能開始具備自主思維意識,形成新的智能群體,能夠像人類一樣獨自地進行思維。
 
  從當前的人工智能發(fā)展水平來看,“強人工智能”尚未實現(xiàn),但通往“強人工智能”的道路也許并不遙遠。近年來,多國先后提出“腦計劃”,期望通過計算機技術(shù)模擬大腦以探索大腦工作機制。其中,歐盟于2013年提出了全球范圍內(nèi)最重要的人類大腦研究項目-人腦計劃(Human Brain Project,HBP)。該計劃耗資近12億歐元,項目周期為10年,旨在通過計算機技術(shù)模擬大腦,建立一套全新的、革命性的生成、分析、整合、模擬數(shù)據(jù)的信息通信技術(shù)平臺。人腦計劃通過模擬大腦模型來探究大腦的生物構(gòu)造與其具備的功能性之間的關(guān)系,揭示大腦的各個區(qū)域如何高效協(xié)作形成統(tǒng)一的、多層次功能結(jié)構(gòu)體系。計劃在2024年項目的最終階段,設(shè)計出能夠模擬人腦運作原理的超級計算機,并促進研究成果的應(yīng)用性轉(zhuǎn)化。[4]
 
  此外,深度學習海嘯正在構(gòu)建起人工智能的遞歸循環(huán)。作為機器學習的分支,起源于人工神經(jīng)網(wǎng)絡(luò)的深度學習,如今不僅僅是具備多層架構(gòu)的感知器,而是一系列能夠用來構(gòu)建可組合可微分的體系結(jié)構(gòu)技術(shù)和方法。具體來說,通過深度學習算法,程序利用數(shù)據(jù)模型分析大量數(shù)據(jù)不斷地自主學習,并逐漸變的更加強大。當前的深度學習雖然是人類向終極智能探索的一小步,但也許這一小步可能會成為人工智能大爆炸的奇點?;谀X計劃的推進以及深度學習的深入開展,人工智能的發(fā)展水平正在呈指數(shù)增長??梢灶A(yù)見,“強人工智能”就在離我們不遠的未來,人工智能的真正威力也將在此展現(xiàn)。“超人工智能”現(xiàn)在看來,似乎遙不可及。但源于未來的無法預(yù)知性,對于“超人工智能”更多的人持有恐懼和悲觀的心理,擔憂比人類更強大的智能群體出現(xiàn),會導致整個世界的失控甚至人類的毀滅。但也許,實現(xiàn)“超人工智能”后,人類會至此步入一個新紀元也未可知。無論如何,不可否認的一點是,由于科技越發(fā)達,科技本身的發(fā)展速度就會越快。故而從時間和效率上來看,人工智能的發(fā)展速度,一定會遠遠高于人類自身的進化速度。
 
 ?。ㄈ┻M入“人工智能+”時代
 
  社會正在從“互聯(lián)網(wǎng)+”向“人工智能+”轉(zhuǎn)型。“人工智能+”指讓人工智能融入各個傳統(tǒng)行業(yè),對行業(yè)進行改造,在舊領(lǐng)域創(chuàng)造新業(yè)態(tài)。“人工智能+”時代,以深度學習等關(guān)鍵技術(shù)為核心,以云計算、生物識別等數(shù)據(jù)或計算能力為基礎(chǔ)支撐,推動人工智能在金融、醫(yī)療、自動駕駛、安防、家居以及營銷等領(lǐng)域?qū)?yīng)用場景落地生根,創(chuàng)造出巨大價值。如今,互聯(lián)網(wǎng)已經(jīng)發(fā)展到了萬物互聯(lián)的階段,爆發(fā)式增長數(shù)據(jù)引發(fā)人們對信息進行有效篩選并合理分配資源的需求。在這種萬物皆互聯(lián),無處不計算的時代下要進行精準生活,“人工智能+”時代成為必然趨勢。未來的人工智能將從專業(yè)性較強的領(lǐng)域逐步拓展到生活的各個領(lǐng)域,轉(zhuǎn)變成為通用智能進而推動新一輪的產(chǎn)業(yè)革命。
 
  二、人工智能帶來的挑戰(zhàn)
 
 ?。ㄒ唬┓蓪用?/div>
 
  1. 產(chǎn)品責任問題
 
  由于科技技術(shù)的不完全可靠性以及智能系統(tǒng)存在的先天設(shè)計缺陷,產(chǎn)品責任的歸責問題伴隨人工智能的發(fā)展而來,尤其是感知智能領(lǐng)域的產(chǎn)品責任問題。2016年,聯(lián)合國教科文組織與世界科學知識與技術(shù)倫理委員會聯(lián)合發(fā)布報告指出,由于機器人一般被視為通常意義上的科技產(chǎn)品,機器人以及機器人技術(shù)造成的傷害,很大一部分可由民法中產(chǎn)品責任的相關(guān)法律進行調(diào)整。從這個角度看,機器人造成的傷害很大一部分被歸責于機器人制造者和零售商的“過失”、“產(chǎn)品警告的缺失”、“沒有盡到合理的注意義務(wù)”。[5]
 
  我國《產(chǎn)品質(zhì)量法》第四十三條規(guī)定,因產(chǎn)品存在缺陷造成人身、他人財產(chǎn)損害的,受害人可以向產(chǎn)品的生產(chǎn)者要求賠償,也可以向產(chǎn)品的銷售者要求賠償。屬于產(chǎn)品的生產(chǎn)者的責任,產(chǎn)品的銷售者賠償?shù)?,產(chǎn)品的銷售者有權(quán)向產(chǎn)品的生產(chǎn)者追償。屬于產(chǎn)品的銷售者的責任,產(chǎn)品的生產(chǎn)者賠償?shù)模a(chǎn)品的生產(chǎn)者有權(quán)向產(chǎn)品的銷售者追償。但該歸責原則可能僅能適用于“弱人工智能”產(chǎn)品。當未來的人工智能出現(xiàn)自主意識和決策能力后,例如自動駕駛汽車做出獨立智能決策導致?lián)p害發(fā)生,應(yīng)當如何確定侵權(quán)主體,由誰來承擔侵權(quán)責任。甚至于未來會出現(xiàn)以下問題:當機器人具備自主意識后是否會成為民事主體?何為生命?“人”的定義是否會發(fā)生變化?“人”與“非人”的界限到底在哪里?這是在此意義上,“人機關(guān)系”具備了豐富的內(nèi)容層次,值得我們進一步去深思去完善立法。
 
  2.隱私保護問題
 
  當萬物互聯(lián)、大數(shù)據(jù)和機器學習三者疊加后,個人隱私將會成為“奢侈品”,人們或許將不再有隱私可言。人工智能的發(fā)展有賴于利用數(shù)據(jù)訓練算法,在這個過程中需要收集、分析和使用大量的數(shù)據(jù),數(shù)據(jù)的價值日益凸顯。人工智能時代,用戶使用各種應(yīng)用產(chǎn)品時,本身就是主動的隱私泄密者,任何技術(shù)手段的“匿名”或“去身份化”可能都會因為大數(shù)據(jù)的分析而重新獲得“身份”。
 
  智能產(chǎn)品的產(chǎn)業(yè)鏈上有開發(fā)商、平臺提供商、操作系統(tǒng)和終端制造商、其他第三方等多個參與主體,這些主體均具備訪問、上傳、共享、修改、交易以及利用用戶提供的數(shù)據(jù)的能力。如何合法合規(guī)地收集和使用數(shù)據(jù)是智能應(yīng)用產(chǎn)業(yè)鏈上的每個主體要面對的重要問題。但如今用戶數(shù)據(jù)日益聚集在大型互聯(lián)網(wǎng)或數(shù)據(jù)處理公司手中,基于商業(yè)利益的考慮,這些公司保護用戶個人隱私的意愿并不強烈。當前對大數(shù)據(jù)的利用依然處于“裸露”狀態(tài),用戶對于數(shù)據(jù)被非法利用的情況往往是不知情的,導致與數(shù)據(jù)處理和使用者之間簽訂的協(xié)議成為了“君子協(xié)定”,喪失了真正保護用戶權(quán)益的功能。[6]
 
  值得一提的是,基于當前個人隱私保護的態(tài)勢,蘋果引入了差分隱私的概念,該種算法通過加入虛擬數(shù)據(jù),避免數(shù)據(jù)與特定主體之間建立聯(lián)系。差分隱私的目標在保護用戶身份和數(shù)據(jù)詳情的同時,仍能提煉出一些基本信息用于機器學習,但該算法尚未得到重視,并未大規(guī)模的應(yīng)用到人工智能領(lǐng)域。為了保護用戶的隱私權(quán),應(yīng)當重視新技術(shù)新業(yè)務(wù)領(lǐng)域的個人信息保護問題。在立法層面,明確個人對其信息享有的基本權(quán)利,規(guī)范企業(yè)收集和使用個人信息的行為。
 
 ?。ǘ﹤惱韺用?/div>
 
  人工智能的發(fā)展與普及應(yīng)用,對于傳統(tǒng)社會倫理造成巨大沖擊。如果不夠謹慎地處理人工智能所帶來的倫理問題,將會對未來社會造成嚴重的傷害。隨著人工智能與人類社會的距離越來越近,倫理問題在不斷的凸顯也愈發(fā)尖銳,世界上的主要國家以及相關(guān)國際組織對倫理問題高度關(guān)注。例如,美國《國家人工智能研究和發(fā)展戰(zhàn)略計劃》中提出,要通過設(shè)計提高公平性、透明度和可追責性。要構(gòu)建人工智能倫理,研究者需要研究出新的算法確保人工智能做出的決策與現(xiàn)有的法律、社會倫理一致。
 
  未來,人工智能倫理框架的構(gòu)建,可能包括下屬的多體系、多層次的判斷,例如匹配規(guī)則的迅速回應(yīng)、接收用戶信任的社會信號、遵守文化準則等。[7]聯(lián)合國發(fā)布的《關(guān)于機器人倫理的研究報告》、標準制定組織IEEE發(fā)布的《合倫理設(shè)計:利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景(第一版)》等文件都對人工智能帶來的倫理問題進行了深刻地分析。研究者需要研究出新的算法確保人工智能做出的決策與現(xiàn)有的法律、社會倫理一致,這是一項具有挑戰(zhàn)性的任務(wù)。倫理問題因各國文化、宗教和信仰等的不同而存在差別。倫理難題需要首先解決的是如何將倫理難題準確的翻譯為人工智能可以識別的語言,將人的道德和倫理觀念嵌入在人工智能中,使其服從甚至具備人的倫理觀念。另一個難題是,當面臨道德困境時,人工智能如何進行決策。我們需要構(gòu)建一個可以被廣泛接受的倫理框架來指導人工智能系統(tǒng)進行推理和決策。需要強調(diào)的是,人工智能的倫理問題本質(zhì)上是一個哲學問題。人類在研究人工智能的倫理問題時并不是在研究機器的道德和倫理,而是一個借由該問題對人類進行自我探索,對人性進行深度剖析的過程。這一過程是對人類道德的呼喚,是對人性的召喚,更是對“人”的意義和價值的吶喊。
 
  三、人工智能發(fā)展建議
 
 ?。ㄒ唬┤斯ぶ悄芗夹g(shù)標準化
 
  人工智能技術(shù)必須滿足客觀的標準從而保證對安全性、可信賴性、可追溯性、隱私保護等方面的要求。為了更有效的評估人工智能技術(shù),相關(guān)的測試方法必須標準化,并創(chuàng)建人工智能技術(shù)基準。技術(shù)基準包括測試和評價,為標準的制定提供定量測量的要求,同時評估標準的遵守情況。標準的測試方法應(yīng)該描述人工智能技術(shù)評估、比較、管理的方法和程序,包括但不限于:準確性、復(fù)雜性、信任和能力、風險和不確定性、可解釋性、與人類行為的比較以及經(jīng)濟影響等。我國在發(fā)展機器人等相關(guān)人工智能產(chǎn)業(yè)的同時,可以積極參與國際交流與合作,提升在國際標準制定中的話語權(quán)。
 
 ?。ǘ┘訌姺膳c道德基礎(chǔ)建設(shè)
 
  隨著人工智能技術(shù)的快速發(fā)展,應(yīng)當及早建立對法律、倫理問題的早期認識,及時采取相應(yīng)的立法行動和社會互動行為,確保系統(tǒng)的設(shè)計者在合規(guī)以及道德的指導下,發(fā)展人工智能技術(shù),并建立公眾信任機制,推動新市場的開發(fā)。故而,人工智能相關(guān)產(chǎn)業(yè)在發(fā)展的過程中應(yīng)加強跨學科教育和法律與道德的基礎(chǔ)建設(shè)。在進行基礎(chǔ)建設(shè)的過程中,不僅應(yīng)考慮國內(nèi)法和國際法的規(guī)定,還要顧及不同的倫理和文化觀點的差異性,以及社會期望等因素。
 
 ?。ㄈ┱O(jiān)管人工智能技術(shù)的發(fā)展
 
  考慮到人工智可能帶來的潛在破壞性影響,如果政府能夠準確及時地監(jiān)控和預(yù)測人工智能技術(shù)的發(fā)展,尤其是人工智能技術(shù)的里程碑式突破,便可讓人工智能系統(tǒng)不間斷地處于人類監(jiān)管干預(yù)模式之下,防止人工智能技術(shù)出現(xiàn)失控性的發(fā)展情況,保障人工智能技術(shù)為人類所用。此外,人工智能相關(guān)行業(yè)應(yīng)該和政府合作,及時向政府反饋行業(yè)的最新發(fā)展動態(tài),包括近期可能在技術(shù)上取得的重大突破。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行