国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

【科技戰(zhàn)略】人工智能時代:發(fā)展邏輯與治理挑戰(zhàn)

   日期:2017-08-23     來源:學(xué)習(xí)時報    作者:dc136     評論:0    
標(biāo)簽: 人工智能 監(jiān)管
 【科技戰(zhàn)略】人工智能時代:發(fā)展邏輯與治理挑戰(zhàn)
伴隨此輪人工智能發(fā)展高潮,社會中普遍存在這樣的擔(dān)憂與疑慮:機(jī)器是否會取代人類,人工智能是否會成為人類文明史的終結(jié)?
 
  在未來的人類生活中,人工智能也必將扮演越來越重要的角色。對于這樣的圖景,我們自不必驚慌,但也不可忽視。監(jiān)管人工智能,找到正確的方向并采取合理的措施,正是當(dāng)下所應(yīng)該重視的政策議題。
 
  人工智能在其60余年起起伏伏的發(fā)展史中,再次迎來了高潮。但伴隨此輪發(fā)展高潮的,同樣還有社會中普遍存在的擔(dān)憂與疑慮:機(jī)器是否會取代人類,人工智能是否會成為人類文明史的終結(jié)?
 
  這樣的擔(dān)憂自有其合理性所在,而也正是基于此,要求政府介入并對人工智能的發(fā)展進(jìn)行監(jiān)管的呼聲不絕于耳??蓡栴}在于:對于一個尚未成為現(xiàn)實(shí)而僅存在于想象中的“威脅”,究竟應(yīng)該如何施以監(jiān)管,以避免“孩子跟洗腳水一起倒掉”?
 
  事實(shí)上,監(jiān)管的難題并不在于如何平衡技術(shù)發(fā)展的利弊兩端,而是如何準(zhǔn)確定位技術(shù)的潛在威脅并有針對性地施以監(jiān)管。換句話說,人工智能的危害真的是“取代人類”么?若如此,唯一合理的監(jiān)管方式可能就是完全禁止該項(xiàng)技術(shù)的研發(fā)??紤]到人工智能技術(shù)的應(yīng)用已經(jīng)遍及生活的方方面面,從搜索引擎到社交網(wǎng)絡(luò)再到定制新聞,不一而足。也正因?yàn)榇?,我們可能需要重新反思?dāng)前對于人工智能的擔(dān)憂是否成立。如果不成立,其真正的威脅又是什么?在回答這些問題的基礎(chǔ)上,我們才有可能找到監(jiān)管人工智能的合理路徑,并使之更有效地服務(wù)于人類、服務(wù)于未來。
 
  人工智能:究竟應(yīng)該擔(dān)心什么
 
  2016年10月19日,霍金在劍橋大學(xué)Leverhulme未來智能中心的開幕儀式上發(fā)表演講,聲稱“人工智能可能是人類文明史的終結(jié)……其在人類歷史上,可能是最好的,也可能是最糟糕的”。這并不是霍金第一次對人工智能的發(fā)展發(fā)出警告。2014年在接受BBC的采訪時,他也表達(dá)了類似的觀點(diǎn)。自那之后,霍金也積極投入到宣傳、推動對人工智能研究進(jìn)行合理規(guī)范的行動當(dāng)中。事實(shí)上,Leverhulme未來智能中心成立的重要使命之一便是化解AI(人工智能)可能帶來的風(fēng)險。
 
  霍金并非“杞人憂天”的唯一,特斯拉、SpaceX的創(chuàng)始人埃隆·馬斯克同樣屢次警告人工智能潛藏的巨大風(fēng)險。在霍金、馬斯克等人的推動下,超過892名人工智能研究人員以及另外1445名專家共同簽署并發(fā)布了《人工智能23條原則》,以確保人工智能的發(fā)展行進(jìn)在正確軌道上。
 
  人工智能是否會取代甚至“奴役”人類的可能性并非是針對其的唯一擔(dān)憂,人工智能對于就業(yè)的沖擊、社會不平等狀況的加劇同樣是引起人們焦慮的重要原因?!段磥砗喪贰返淖髡哂韧郀?middot;赫拉利就直接指出:人工智能的發(fā)展將導(dǎo)致大量失業(yè)等社會問題的出現(xiàn),并使得少數(shù)個體成為“超人”中的新精英而大部分人類都將淪為在經(jīng)濟(jì)、政治意義上毫無價值的個體,由此人類將進(jìn)入最不平等的時代。
 
  我們是否應(yīng)該相信霍金、馬斯克和赫拉利等人對于人工智能的擔(dān)憂呢?不同的人有不同的觀點(diǎn)。扎克伯格就曾批評過馬斯克,他認(rèn)為“現(xiàn)在對于人工智能安全性的擔(dān)憂,就如同兩百年前擔(dān)心飛機(jī)墜毀怎么辦一樣。如果我們總是過度擔(dān)心安全性,我們就不可能造出飛機(jī)。”事實(shí)上,歷史上任何一項(xiàng)顛覆性的技術(shù)進(jìn)步都伴隨著諸多質(zhì)疑,無論是原子能技術(shù)的發(fā)明,抑或是基因工程的突破,無不如此。但歷史最終證明,人類社會的發(fā)展并未陷入混亂或終結(jié),這也說明當(dāng)前對于人工智能的擔(dān)憂或許存在一定的夸大成分。
 
  不過另一方面,人工智能的發(fā)展又的確潛藏了巨大風(fēng)險,放任自流的監(jiān)管態(tài)度明顯不是最優(yōu)選擇。同樣需要指出的是,自1960年代OECD提出“知識社會”的概念之后,技術(shù)發(fā)展就成為了與土地、人口并重的國家競爭力的重要體現(xiàn)之一。如何通過合理監(jiān)管以有效引導(dǎo)本國人工智能技術(shù)的發(fā)展,自然成為各國政府繞不開的難題。也正因?yàn)榇?,?dāng)前爭議的核心并非“是否應(yīng)該對人工智能的發(fā)展進(jìn)行監(jiān)管”,真正的挑戰(zhàn)在于“監(jiān)管什么”,以及“如何監(jiān)管”。
 
  事實(shí)上,只有回到人工智能技術(shù)本身并從其基本原理出發(fā),才能正確理解什么是人工智能,它能干什么、不能干什么,潛藏的價值和風(fēng)險又是什么。只有建立在對這些問題正確理解的基礎(chǔ)上,我們才能為未來的監(jiān)管政策提出有益建議。
 
  算法背后的基石:數(shù)據(jù)與規(guī)則
 
  在經(jīng)歷了2016年的火熱之后,許多人已經(jīng)可以感知到人工智能,以及支撐其運(yùn)行的機(jī)器學(xué)習(xí)算法的普遍存在。無處不在的人工智能已經(jīng)開始逐漸影響我們的日常生活,計(jì)算設(shè)備在“吞入”海量數(shù)據(jù)的同時,神奇地生產(chǎn)著與你相關(guān)的各種信息、產(chǎn)品與服務(wù)。
 
  但這個過程究竟是如何發(fā)生的?建立在機(jī)器學(xué)習(xí)算法基礎(chǔ)上的人工智能是否會不斷進(jìn)步乃至最終超越人類的控制?要想對這一問題做出回答,我們便不得不回到機(jī)器學(xué)習(xí)的算法本身上來。
 
  算法本質(zhì)上就是一系列指令,告訴計(jì)算機(jī)該做什么。對于傳統(tǒng)算法而言,往往事無巨細(xì)地規(guī)定好了機(jī)器在既定條件下的既定動作;機(jī)器學(xué)習(xí)算法卻是通過對已有數(shù)據(jù)的“學(xué)習(xí)”,使機(jī)器能夠在與歷史數(shù)據(jù)不同的新情境下做出判斷。
 
  具體而言,機(jī)器學(xué)習(xí)算法的實(shí)現(xiàn)方式多種多樣,但就當(dāng)前的技術(shù)發(fā)展而言,主要可被劃分為5個類別:符號學(xué)派、聯(lián)接學(xué)派、進(jìn)化學(xué)派、類推學(xué)派和貝葉斯學(xué)派。每個學(xué)派都遵循不同的邏輯、以不同的理念實(shí)現(xiàn)機(jī)器學(xué)習(xí)的過程。
 
  對于“符號學(xué)派”而言,所有的信息處理都可被簡化為對符號的操縱,由此學(xué)習(xí)過程被簡化(抽象)為基于數(shù)據(jù)和假設(shè)的規(guī)則歸納過程。在數(shù)據(jù)(即當(dāng)前事實(shí))和已有知識(即預(yù)先設(shè)定的條件)的基礎(chǔ)上,符號學(xué)派通過“提出假設(shè)—數(shù)據(jù)驗(yàn)證—進(jìn)一步提出新假設(shè)—歸納新規(guī)則”的過程訓(xùn)練機(jī)器的學(xué)習(xí)能力,并由此實(shí)現(xiàn)在新環(huán)境下的決策判斷。符號學(xué)派固然符合經(jīng)驗(yàn)主義的哲學(xué)認(rèn)知,但通過其概念模型我們亦可以發(fā)現(xiàn),其成功的關(guān)鍵在于數(shù)據(jù)的完整性和人為預(yù)設(shè)條件的可靠性。換言之,數(shù)據(jù)的缺失和預(yù)設(shè)條件的不合理將直接影響機(jī)器學(xué)習(xí)的輸出(即決策規(guī)則的歸納)。最明顯體現(xiàn)這一問題的例子便是羅素的“歸納主義者火雞”:火雞在觀察10天(數(shù)據(jù)集不完整)之后得出結(jié)論(代表預(yù)設(shè)條件不合理,超過10個確認(rèn)數(shù)據(jù)即接受規(guī)則),主人會在每天早上9點(diǎn)給它喂食;但接下來是平安夜的早餐,主人沒有喂它而是宰了它。
 
  數(shù)據(jù)和預(yù)設(shè)條件的問題不僅存在于符號學(xué)派,這同樣是其他學(xué)派的共性。“聯(lián)接學(xué)派”試圖模擬人腦的學(xué)習(xí)過程,通過仿真神經(jīng)元的聯(lián)接結(jié)構(gòu),并借助反向傳播算法(反饋輸出與輸入的對比,并以誤差為基準(zhǔn)調(diào)整參數(shù))自動調(diào)整各個聯(lián)接的權(quán)值,以最終實(shí)現(xiàn)學(xué)習(xí)能力。此處的關(guān)鍵仍然是輸入數(shù)據(jù)集的完整性,以及預(yù)設(shè)條件的可靠性(例如停止反饋調(diào)節(jié)的閾值設(shè)定)。“進(jìn)化學(xué)派”試圖模擬人類的進(jìn)化過程,在預(yù)先設(shè)定的適應(yīng)度目標(biāo)(例如過濾垃圾郵件算法的設(shè)計(jì)中,某個規(guī)則正確分類郵件的百分比就是適應(yīng)度目標(biāo))指引下,通過交叉、實(shí)驗(yàn)不同的規(guī)則集合以找出與測試數(shù)據(jù)適應(yīng)度最高的規(guī)則集(也即形成學(xué)習(xí)能力)。由此仍然可以看出數(shù)據(jù)與預(yù)設(shè)條件(適應(yīng)度目標(biāo)的設(shè)定)的重要性。“類推學(xué)派”亦是如此,其基本思想是通過判別不同場景的相似程度,來推導(dǎo)新場景中的合理決策。就此而言,參考數(shù)據(jù)集的完整性和不同場景相似程度的閾值設(shè)定(預(yù)設(shè)條件)依然是影響機(jī)器學(xué)習(xí)結(jié)果的關(guān)鍵所在。相比于前四個學(xué)派,貝葉斯學(xué)派對于數(shù)據(jù)集的規(guī)模沒有太高要求,因其優(yōu)勢正是對于未來不確定性的學(xué)習(xí)與探索。貝葉斯算法將根據(jù)收到的新數(shù)據(jù)來持續(xù)檢驗(yàn)既有假設(shè)成立的概率可能性,并對其進(jìn)行實(shí)時調(diào)整。不過即使如此,貝葉斯算法依然受制于輸入數(shù)據(jù)和調(diào)整規(guī)則。換言之,數(shù)據(jù)與人為預(yù)設(shè)條件依然是控制貝葉斯算法的關(guān)鍵。
 
  事實(shí)上,如果跳出具體學(xué)派的思維束縛,每種機(jī)器學(xué)習(xí)算法都可被概括為由“表示方法、評估、優(yōu)化”這三部分組成。盡管機(jī)器可以不斷地自我優(yōu)化以提升學(xué)習(xí)能力,且原則上可以學(xué)習(xí)任何東西,但用以評估的數(shù)據(jù)以及評估的方法和原則都是由人為決定的。也正是從這個角度講,本文開始所提到的“機(jī)器取代人類”的可能性其實(shí)為零——盡管機(jī)器可能會變得異常復(fù)雜以致人類難以理解。
 
  監(jiān)管人工智能:真正的挑戰(zhàn)是什么
 
  正如霍金、馬斯克等人發(fā)起倡議的《人工智能23條原則》一樣,人工智能的發(fā)展確需被納入到正確的軌道上來——盡管原因并不在于聳人聽聞的“機(jī)器取代論”。
 
  那究竟應(yīng)該“監(jiān)管什么”且又“如何監(jiān)管”呢?問題的答案或許就在于本文第二部分對于機(jī)器學(xué)習(xí)算法的概念性描述上:既然數(shù)據(jù)和預(yù)設(shè)規(guī)則是所有算法的基石,那么數(shù)據(jù)治理和規(guī)則治理便自然成為監(jiān)管人工智能的關(guān)鍵。
 
  一方面,我們給機(jī)器什么樣的數(shù)據(jù),機(jī)器就會形成什么樣的學(xué)習(xí)能力并隨之反饋給我們相應(yīng)的學(xué)習(xí)結(jié)果。這一過程首先要解決的問題便是數(shù)據(jù)從何而來,機(jī)器又將如何利用數(shù)據(jù)?正如前文所反復(fù)闡述的,不完整的數(shù)據(jù)集必然導(dǎo)致人工智能學(xué)習(xí)過程的錯誤——就像羅素筆下的“歸納主義者火雞”一樣。但大規(guī)模的數(shù)據(jù)收集又必然帶來隱私保護(hù)、利益分配等諸多問題,由此形成的對于數(shù)據(jù)治理的監(jiān)管要求便成為了監(jiān)管人工智能的第一步。在保護(hù)個體數(shù)據(jù)權(quán)利的基礎(chǔ)上,鼓勵并規(guī)范數(shù)據(jù)的分享與應(yīng)用,以最終促進(jìn)人工智能朝著更好的方向發(fā)展。
 
  另一方面,機(jī)器優(yōu)化的規(guī)則(條件)又是由誰、通過何種程序來制定。盡管我們認(rèn)為沒有必要過多地?fù)?dān)憂人工智能的發(fā)展,但真實(shí)的威脅依然存在。事實(shí)上,人工智能正在以不被察覺的方式潛移默化地影響人類日常生活,如果機(jī)器優(yōu)化的規(guī)則不是以正當(dāng)?shù)某绦蚴艿奖O(jiān)管和制約,那么很難保證其不被不法之徒所利用。正如長久以來對于“臉書”的質(zhì)疑一樣:公眾如何相信其向用戶推薦的新聞內(nèi)容不會摻雜特殊利益的取向?當(dāng)越來越多的人依賴定制化的新聞推送時,人工智能甚至?xí)绊懙娇偨y(tǒng)選舉。也正因?yàn)榇?,包括透明、開源在內(nèi)的諸多治理原則,應(yīng)當(dāng)成為人工智能監(jiān)管政策制定過程中被納入的合理議題。
 
  在經(jīng)歷了60余年的發(fā)展之后,人工智能終于在互聯(lián)網(wǎng)、大數(shù)據(jù)、機(jī)器學(xué)習(xí)等諸多技術(shù)取得突破的基礎(chǔ)上實(shí)現(xiàn)了騰飛。在未來的人類生活中,人工智能也必將扮演越來越重要的角色。對于這樣的圖景,我們自不必驚慌,但卻也不可忽視。監(jiān)管人工智能,找到正確的方向并采取合理的措施,正是當(dāng)下所應(yīng)該重視的政策議題。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點(diǎn)擊排行