国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 發(fā)那科機(jī)器人  工業(yè)  機(jī)器人  上海  ABB機(jī)器人  自動(dòng)化  工業(yè)機(jī)器人  工業(yè)機(jī)器人展  機(jī)器  展會(huì) 

【科技戰(zhàn)略】人工智能時(shí)代:發(fā)展邏輯與治理挑戰(zhàn)

   日期:2017-08-23     來(lái)源:學(xué)習(xí)時(shí)報(bào)    作者:dc136     評(píng)論:0    
標(biāo)簽: 人工智能 監(jiān)管
  【科技戰(zhàn)略】人工智能時(shí)代:發(fā)展邏輯與治理挑戰(zhàn)
伴隨此輪人工智能發(fā)展高潮,社會(huì)中普遍存在這樣的擔(dān)憂與疑慮:機(jī)器是否會(huì)取代人類(lèi),人工智能是否會(huì)成為人類(lèi)文明史的終結(jié)?
 
  在未來(lái)的人類(lèi)生活中,人工智能也必將扮演越來(lái)越重要的角色。對(duì)于這樣的圖景,我們自不必驚慌,但也不可忽視。監(jiān)管人工智能,找到正確的方向并采取合理的措施,正是當(dāng)下所應(yīng)該重視的政策議題。
 
  人工智能在其60余年起起伏伏的發(fā)展史中,再次迎來(lái)了高潮。但伴隨此輪發(fā)展高潮的,同樣還有社會(huì)中普遍存在的擔(dān)憂與疑慮:機(jī)器是否會(huì)取代人類(lèi),人工智能是否會(huì)成為人類(lèi)文明史的終結(jié)?
 
  這樣的擔(dān)憂自有其合理性所在,而也正是基于此,要求政府介入并對(duì)人工智能的發(fā)展進(jìn)行監(jiān)管的呼聲不絕于耳??蓡?wèn)題在于:對(duì)于一個(gè)尚未成為現(xiàn)實(shí)而僅存在于想象中的“威脅”,究竟應(yīng)該如何施以監(jiān)管,以避免“孩子跟洗腳水一起倒掉”?
 
  事實(shí)上,監(jiān)管的難題并不在于如何平衡技術(shù)發(fā)展的利弊兩端,而是如何準(zhǔn)確定位技術(shù)的潛在威脅并有針對(duì)性地施以監(jiān)管。換句話說(shuō),人工智能的危害真的是“取代人類(lèi)”么?若如此,唯一合理的監(jiān)管方式可能就是完全禁止該項(xiàng)技術(shù)的研發(fā)??紤]到人工智能技術(shù)的應(yīng)用已經(jīng)遍及生活的方方面面,從搜索引擎到社交網(wǎng)絡(luò)再到定制新聞,不一而足。也正因?yàn)榇耍覀兛赡苄枰匦路此籍?dāng)前對(duì)于人工智能的擔(dān)憂是否成立。如果不成立,其真正的威脅又是什么?在回答這些問(wèn)題的基礎(chǔ)上,我們才有可能找到監(jiān)管人工智能的合理路徑,并使之更有效地服務(wù)于人類(lèi)、服務(wù)于未來(lái)。
 
  人工智能:究竟應(yīng)該擔(dān)心什么
 
  2016年10月19日,霍金在劍橋大學(xué)Leverhulme未來(lái)智能中心的開(kāi)幕儀式上發(fā)表演講,聲稱(chēng)“人工智能可能是人類(lèi)文明史的終結(jié)……其在人類(lèi)歷史上,可能是最好的,也可能是最糟糕的”。這并不是霍金第一次對(duì)人工智能的發(fā)展發(fā)出警告。2014年在接受BBC的采訪時(shí),他也表達(dá)了類(lèi)似的觀點(diǎn)。自那之后,霍金也積極投入到宣傳、推動(dòng)對(duì)人工智能研究進(jìn)行合理規(guī)范的行動(dòng)當(dāng)中。事實(shí)上,Leverhulme未來(lái)智能中心成立的重要使命之一便是化解AI(人工智能)可能帶來(lái)的風(fēng)險(xiǎn)。
 
  霍金并非“杞人憂天”的唯一,特斯拉、SpaceX的創(chuàng)始人埃隆·馬斯克同樣屢次警告人工智能潛藏的巨大風(fēng)險(xiǎn)。在霍金、馬斯克等人的推動(dòng)下,超過(guò)892名人工智能研究人員以及另外1445名專(zhuān)家共同簽署并發(fā)布了《人工智能23條原則》,以確保人工智能的發(fā)展行進(jìn)在正確軌道上。
 
  人工智能是否會(huì)取代甚至“奴役”人類(lèi)的可能性并非是針對(duì)其的唯一擔(dān)憂,人工智能對(duì)于就業(yè)的沖擊、社會(huì)不平等狀況的加劇同樣是引起人們焦慮的重要原因?!段磥?lái)簡(jiǎn)史》的作者尤瓦爾·赫拉利就直接指出:人工智能的發(fā)展將導(dǎo)致大量失業(yè)等社會(huì)問(wèn)題的出現(xiàn),并使得少數(shù)個(gè)體成為“超人”中的新精英而大部分人類(lèi)都將淪為在經(jīng)濟(jì)、政治意義上毫無(wú)價(jià)值的個(gè)體,由此人類(lèi)將進(jìn)入最不平等的時(shí)代。
 
  我們是否應(yīng)該相信霍金、馬斯克和赫拉利等人對(duì)于人工智能的擔(dān)憂呢?不同的人有不同的觀點(diǎn)。扎克伯格就曾批評(píng)過(guò)馬斯克,他認(rèn)為“現(xiàn)在對(duì)于人工智能安全性的擔(dān)憂,就如同兩百年前擔(dān)心飛機(jī)墜毀怎么辦一樣。如果我們總是過(guò)度擔(dān)心安全性,我們就不可能造出飛機(jī)。”事實(shí)上,歷史上任何一項(xiàng)顛覆性的技術(shù)進(jìn)步都伴隨著諸多質(zhì)疑,無(wú)論是原子能技術(shù)的發(fā)明,抑或是基因工程的突破,無(wú)不如此。但歷史最終證明,人類(lèi)社會(huì)的發(fā)展并未陷入混亂或終結(jié),這也說(shuō)明當(dāng)前對(duì)于人工智能的擔(dān)憂或許存在一定的夸大成分。
 
  不過(guò)另一方面,人工智能的發(fā)展又的確潛藏了巨大風(fēng)險(xiǎn),放任自流的監(jiān)管態(tài)度明顯不是最優(yōu)選擇。同樣需要指出的是,自1960年代OECD提出“知識(shí)社會(huì)”的概念之后,技術(shù)發(fā)展就成為了與土地、人口并重的國(guó)家競(jìng)爭(zhēng)力的重要體現(xiàn)之一。如何通過(guò)合理監(jiān)管以有效引導(dǎo)本國(guó)人工智能技術(shù)的發(fā)展,自然成為各國(guó)政府繞不開(kāi)的難題。也正因?yàn)榇?,?dāng)前爭(zhēng)議的核心并非“是否應(yīng)該對(duì)人工智能的發(fā)展進(jìn)行監(jiān)管”,真正的挑戰(zhàn)在于“監(jiān)管什么”,以及“如何監(jiān)管”。
 
  事實(shí)上,只有回到人工智能技術(shù)本身并從其基本原理出發(fā),才能正確理解什么是人工智能,它能干什么、不能干什么,潛藏的價(jià)值和風(fēng)險(xiǎn)又是什么。只有建立在對(duì)這些問(wèn)題正確理解的基礎(chǔ)上,我們才能為未來(lái)的監(jiān)管政策提出有益建議。
 
  算法背后的基石:數(shù)據(jù)與規(guī)則
 
  在經(jīng)歷了2016年的火熱之后,許多人已經(jīng)可以感知到人工智能,以及支撐其運(yùn)行的機(jī)器學(xué)習(xí)算法的普遍存在。無(wú)處不在的人工智能已經(jīng)開(kāi)始逐漸影響我們的日常生活,計(jì)算設(shè)備在“吞入”海量數(shù)據(jù)的同時(shí),神奇地生產(chǎn)著與你相關(guān)的各種信息、產(chǎn)品與服務(wù)。
 
  但這個(gè)過(guò)程究竟是如何發(fā)生的?建立在機(jī)器學(xué)習(xí)算法基礎(chǔ)上的人工智能是否會(huì)不斷進(jìn)步乃至最終超越人類(lèi)的控制?要想對(duì)這一問(wèn)題做出回答,我們便不得不回到機(jī)器學(xué)習(xí)的算法本身上來(lái)。
 
  算法本質(zhì)上就是一系列指令,告訴計(jì)算機(jī)該做什么。對(duì)于傳統(tǒng)算法而言,往往事無(wú)巨細(xì)地規(guī)定好了機(jī)器在既定條件下的既定動(dòng)作;機(jī)器學(xué)習(xí)算法卻是通過(guò)對(duì)已有數(shù)據(jù)的“學(xué)習(xí)”,使機(jī)器能夠在與歷史數(shù)據(jù)不同的新情境下做出判斷。
 
  具體而言,機(jī)器學(xué)習(xí)算法的實(shí)現(xiàn)方式多種多樣,但就當(dāng)前的技術(shù)發(fā)展而言,主要可被劃分為5個(gè)類(lèi)別:符號(hào)學(xué)派、聯(lián)接學(xué)派、進(jìn)化學(xué)派、類(lèi)推學(xué)派和貝葉斯學(xué)派。每個(gè)學(xué)派都遵循不同的邏輯、以不同的理念實(shí)現(xiàn)機(jī)器學(xué)習(xí)的過(guò)程。
 
  對(duì)于“符號(hào)學(xué)派”而言,所有的信息處理都可被簡(jiǎn)化為對(duì)符號(hào)的操縱,由此學(xué)習(xí)過(guò)程被簡(jiǎn)化(抽象)為基于數(shù)據(jù)和假設(shè)的規(guī)則歸納過(guò)程。在數(shù)據(jù)(即當(dāng)前事實(shí))和已有知識(shí)(即預(yù)先設(shè)定的條件)的基礎(chǔ)上,符號(hào)學(xué)派通過(guò)“提出假設(shè)—數(shù)據(jù)驗(yàn)證—進(jìn)一步提出新假設(shè)—歸納新規(guī)則”的過(guò)程訓(xùn)練機(jī)器的學(xué)習(xí)能力,并由此實(shí)現(xiàn)在新環(huán)境下的決策判斷。符號(hào)學(xué)派固然符合經(jīng)驗(yàn)主義的哲學(xué)認(rèn)知,但通過(guò)其概念模型我們亦可以發(fā)現(xiàn),其成功的關(guān)鍵在于數(shù)據(jù)的完整性和人為預(yù)設(shè)條件的可靠性。換言之,數(shù)據(jù)的缺失和預(yù)設(shè)條件的不合理將直接影響機(jī)器學(xué)習(xí)的輸出(即決策規(guī)則的歸納)。最明顯體現(xiàn)這一問(wèn)題的例子便是羅素的“歸納主義者火雞”:火雞在觀察10天(數(shù)據(jù)集不完整)之后得出結(jié)論(代表預(yù)設(shè)條件不合理,超過(guò)10個(gè)確認(rèn)數(shù)據(jù)即接受規(guī)則),主人會(huì)在每天早上9點(diǎn)給它喂食;但接下來(lái)是平安夜的早餐,主人沒(méi)有喂它而是宰了它。
 
  數(shù)據(jù)和預(yù)設(shè)條件的問(wèn)題不僅存在于符號(hào)學(xué)派,這同樣是其他學(xué)派的共性。“聯(lián)接學(xué)派”試圖模擬人腦的學(xué)習(xí)過(guò)程,通過(guò)仿真神經(jīng)元的聯(lián)接結(jié)構(gòu),并借助反向傳播算法(反饋輸出與輸入的對(duì)比,并以誤差為基準(zhǔn)調(diào)整參數(shù))自動(dòng)調(diào)整各個(gè)聯(lián)接的權(quán)值,以最終實(shí)現(xiàn)學(xué)習(xí)能力。此處的關(guān)鍵仍然是輸入數(shù)據(jù)集的完整性,以及預(yù)設(shè)條件的可靠性(例如停止反饋調(diào)節(jié)的閾值設(shè)定)。“進(jìn)化學(xué)派”試圖模擬人類(lèi)的進(jìn)化過(guò)程,在預(yù)先設(shè)定的適應(yīng)度目標(biāo)(例如過(guò)濾垃圾郵件算法的設(shè)計(jì)中,某個(gè)規(guī)則正確分類(lèi)郵件的百分比就是適應(yīng)度目標(biāo))指引下,通過(guò)交叉、實(shí)驗(yàn)不同的規(guī)則集合以找出與測(cè)試數(shù)據(jù)適應(yīng)度最高的規(guī)則集(也即形成學(xué)習(xí)能力)。由此仍然可以看出數(shù)據(jù)與預(yù)設(shè)條件(適應(yīng)度目標(biāo)的設(shè)定)的重要性。“類(lèi)推學(xué)派”亦是如此,其基本思想是通過(guò)判別不同場(chǎng)景的相似程度,來(lái)推導(dǎo)新場(chǎng)景中的合理決策。就此而言,參考數(shù)據(jù)集的完整性和不同場(chǎng)景相似程度的閾值設(shè)定(預(yù)設(shè)條件)依然是影響機(jī)器學(xué)習(xí)結(jié)果的關(guān)鍵所在。相比于前四個(gè)學(xué)派,貝葉斯學(xué)派對(duì)于數(shù)據(jù)集的規(guī)模沒(méi)有太高要求,因其優(yōu)勢(shì)正是對(duì)于未來(lái)不確定性的學(xué)習(xí)與探索。貝葉斯算法將根據(jù)收到的新數(shù)據(jù)來(lái)持續(xù)檢驗(yàn)既有假設(shè)成立的概率可能性,并對(duì)其進(jìn)行實(shí)時(shí)調(diào)整。不過(guò)即使如此,貝葉斯算法依然受制于輸入數(shù)據(jù)和調(diào)整規(guī)則。換言之,數(shù)據(jù)與人為預(yù)設(shè)條件依然是控制貝葉斯算法的關(guān)鍵。
 
  事實(shí)上,如果跳出具體學(xué)派的思維束縛,每種機(jī)器學(xué)習(xí)算法都可被概括為由“表示方法、評(píng)估、優(yōu)化”這三部分組成。盡管機(jī)器可以不斷地自我優(yōu)化以提升學(xué)習(xí)能力,且原則上可以學(xué)習(xí)任何東西,但用以評(píng)估的數(shù)據(jù)以及評(píng)估的方法和原則都是由人為決定的。也正是從這個(gè)角度講,本文開(kāi)始所提到的“機(jī)器取代人類(lèi)”的可能性其實(shí)為零——盡管機(jī)器可能會(huì)變得異常復(fù)雜以致人類(lèi)難以理解。
 
  監(jiān)管人工智能:真正的挑戰(zhàn)是什么
 
  正如霍金、馬斯克等人發(fā)起倡議的《人工智能23條原則》一樣,人工智能的發(fā)展確需被納入到正確的軌道上來(lái)——盡管原因并不在于聳人聽(tīng)聞的“機(jī)器取代論”。
 
  那究竟應(yīng)該“監(jiān)管什么”且又“如何監(jiān)管”呢?問(wèn)題的答案或許就在于本文第二部分對(duì)于機(jī)器學(xué)習(xí)算法的概念性描述上:既然數(shù)據(jù)和預(yù)設(shè)規(guī)則是所有算法的基石,那么數(shù)據(jù)治理和規(guī)則治理便自然成為監(jiān)管人工智能的關(guān)鍵。
 
  一方面,我們給機(jī)器什么樣的數(shù)據(jù),機(jī)器就會(huì)形成什么樣的學(xué)習(xí)能力并隨之反饋給我們相應(yīng)的學(xué)習(xí)結(jié)果。這一過(guò)程首先要解決的問(wèn)題便是數(shù)據(jù)從何而來(lái),機(jī)器又將如何利用數(shù)據(jù)?正如前文所反復(fù)闡述的,不完整的數(shù)據(jù)集必然導(dǎo)致人工智能學(xué)習(xí)過(guò)程的錯(cuò)誤——就像羅素筆下的“歸納主義者火雞”一樣。但大規(guī)模的數(shù)據(jù)收集又必然帶來(lái)隱私保護(hù)、利益分配等諸多問(wèn)題,由此形成的對(duì)于數(shù)據(jù)治理的監(jiān)管要求便成為了監(jiān)管人工智能的第一步。在保護(hù)個(gè)體數(shù)據(jù)權(quán)利的基礎(chǔ)上,鼓勵(lì)并規(guī)范數(shù)據(jù)的分享與應(yīng)用,以最終促進(jìn)人工智能朝著更好的方向發(fā)展。
 
  另一方面,機(jī)器優(yōu)化的規(guī)則(條件)又是由誰(shuí)、通過(guò)何種程序來(lái)制定。盡管我們認(rèn)為沒(méi)有必要過(guò)多地?fù)?dān)憂人工智能的發(fā)展,但真實(shí)的威脅依然存在。事實(shí)上,人工智能正在以不被察覺(jué)的方式潛移默化地影響人類(lèi)日常生活,如果機(jī)器優(yōu)化的規(guī)則不是以正當(dāng)?shù)某绦蚴艿奖O(jiān)管和制約,那么很難保證其不被不法之徒所利用。正如長(zhǎng)久以來(lái)對(duì)于“臉書(shū)”的質(zhì)疑一樣:公眾如何相信其向用戶(hù)推薦的新聞內(nèi)容不會(huì)摻雜特殊利益的取向?當(dāng)越來(lái)越多的人依賴(lài)定制化的新聞推送時(shí),人工智能甚至?xí)绊懙娇偨y(tǒng)選舉。也正因?yàn)榇耍ㄍ该?、開(kāi)源在內(nèi)的諸多治理原則,應(yīng)當(dāng)成為人工智能監(jiān)管政策制定過(guò)程中被納入的合理議題。
 
  在經(jīng)歷了60余年的發(fā)展之后,人工智能終于在互聯(lián)網(wǎng)、大數(shù)據(jù)、機(jī)器學(xué)習(xí)等諸多技術(shù)取得突破的基礎(chǔ)上實(shí)現(xiàn)了騰飛。在未來(lái)的人類(lèi)生活中,人工智能也必將扮演越來(lái)越重要的角色。對(duì)于這樣的圖景,我們自不必驚慌,但卻也不可忽視。監(jiān)管人工智能,找到正確的方向并采取合理的措施,正是當(dāng)下所應(yīng)該重視的政策議題。
 
 
聲明:凡資訊來(lái)源注明為其他媒體來(lái)源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點(diǎn),也不代表本網(wǎng)站對(duì)其真實(shí)性負(fù)責(zé)。您若對(duì)該文章內(nèi)容有任何疑問(wèn)或質(zhì)疑,請(qǐng)立即與中國(guó)機(jī)器人網(wǎng)(www.baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
電話:021-39553798-8007
更多>相關(guān)專(zhuān)題
0相關(guān)評(píng)論

推薦圖文
推薦專(zhuān)題
點(diǎn)擊排行
?