国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

AI面臨的挑戰(zhàn):無人車闖禍,我們該找誰?如何保證不再發(fā)生?

   日期:2017-11-03     來源:大數(shù)據(jù)文摘    作者:dc136     評論:0    
   當人們問我是做什么工作的時候,我總是非常困惑如何回答才好。“人工智能”這個答復(fù)吧,我覺得太寬泛了,而“圖像識別”似乎又太專業(yè)了。不過呢,還是下面這個問題令我真正抓狂:
 
  人工智能會掌控整個地球嗎?
 
  對于一名從事于機器智能研究的專業(yè)人士來說,這個問題太讓我惱火了。我也不想去抱怨懷疑論者,事實上大部分人都覺得人工智能是一種神秘,而且有著無窮無盡陰謀詭計的玩意兒,最終它們會把人類滅絕,因為,它能夠在我們狂看一晚Evan Goldberg編導(dǎo)的電影之后,就預(yù)測到下一部我們將觀看的影片將會是《Sausage Party》(《香腸派對》)。
 
  “然而,大多數(shù)人并沒有意識到,無論我們認為自己多么有個性,多么特殊,從普遍意義上來看,人們還是遵循一些普遍行為模式的。只要經(jīng)過足夠多訓(xùn)練,計算機就可以輕松識別出人們的行為模式。”
 
  因此,機器能推測你喜歡的音樂,或者給你一些手機APP應(yīng)用的建議,這對機器來說很容易實現(xiàn)。不過,這并不代表所有的預(yù)測工作的難度和性質(zhì)類似,我只是希望大家能理解,這相對于人類的能力來說是一種延伸和拓展。
 
  要想了解時下人工智能領(lǐng)域中哪些技術(shù)很厲害,重點在于懂得機器學(xué)習(xí)做得不錯的兩個主要場景:
 
  1.受控環(huán)境
 
  2.監(jiān)督
 
  我們看到了Google的人工圍棋選手AlphaGo打敗了人類最厲害的圍棋選手,計算機象棋的問題很早以前就已經(jīng)解決了,而最近又有很多論文在探討Doom游戲比賽中擊敗人類的話題。事實上,在游戲里面,你能夠完全掌控操作環(huán)境、能夠?qū)嵤┑男袨橐约翱赡墚a(chǎn)生的結(jié)果,這使得建模變得相當容易。而一旦我們能夠?qū)⒂螒颦h(huán)境進行建模,下一步任務(wù)就是模擬和學(xué)習(xí)。實際上,這些理論早就已經(jīng)成熟了,正是近年來計算機硬件的發(fā)展使大規(guī)模機器學(xué)習(xí)得以實現(xiàn),才能夠令A(yù)lphaGo這類技術(shù)在實現(xiàn)層面上獲得重大突破。
 
  監(jiān)督式受控環(huán)境表示對于每一個行為,你能夠估計出可能受到的懲罰,從而能夠有效地從錯誤中積累經(jīng)驗,而游戲正是這種監(jiān)督式受控環(huán)境的完美表達。還有一個例子就是我們剛才提到的電影預(yù)測,可以理解為有一個很大的樣本,里面存在“用戶”和“影片”兩類數(shù)據(jù),還有一個給定的用戶選擇模型。通過這些,我們就能進行下一次看什么電影的預(yù)測。
 
  在監(jiān)督式受控環(huán)境中,我們知道會得到何種信息,并能夠?qū)︻愃频男畔⒓右蕴幚?。我們可以對這類目標創(chuàng)建“表達法”(representation),在我們需要進行預(yù)測的時候,這些“表達法”能夠幫助我們最終確定準確的計算模型。這是通用學(xué)習(xí)類型中的一個非常狹窄的子類,也是和我們?nèi)祟惒畈欢嗟囊活愔悄芊绞健?/div>
AI面臨的挑戰(zhàn):無人車闖禍,我們該找誰?如何保證不再發(fā)生?
  圖注:分類器概觀
 
  然而,大部分的人類行為并非監(jiān)督式的,而是在與環(huán)境交互的基礎(chǔ)上建立的邏輯和直覺。人類的基本活動,比如說識別物體,理解物理過程都是時常發(fā)生的事情。通常,我們通過與事物的互動能習(xí)得很多的新知。
 
  在當前階段,這對于計算機來說還是很難達到的水平?,F(xiàn)在如果你要一臺機器能認識所有你給的圖片里面的汽車,你必須告訴機器先去看那些圖片,還得告訴它你的汽車是什么樣子的。當你給機器看了大量汽車圖片時,它就能認出汽車了。這就是監(jiān)督式學(xué)習(xí),在它尚未理解看什么東西的時候,你得教它汽車是什么樣子的。
 
  現(xiàn)在,計算機科學(xué)家在努力使這種學(xué)習(xí)變成幾乎無需監(jiān)督的,即非監(jiān)督式學(xué)習(xí)。最終,我們希望機器能夠理解物體和景象的概念本身,而不需要特地去調(diào)教它。
 
  當前大多數(shù)研究的重心在于非監(jiān)督式學(xué)習(xí),解決這個問題更加困難。誠然,我們的機器看上去更聰明了,不過大多數(shù)都是在監(jiān)督式受控環(huán)境中的情況。首先我們必須能令機器人在非監(jiān)督的環(huán)境下正常工作,然后再考慮系統(tǒng)在非受控的情形下運行,這樣才更為接近人類的智能。
 
  “盡管,現(xiàn)在探討機器滅絕人類,或者是機器人的‘不良企圖’仍為時尚早。然而,人工智能更嚴峻的威脅正悄然逼近,這可能造成極其嚴重的后果”。
AI面臨的挑戰(zhàn):無人車闖禍,我們該找誰?如何保證不再發(fā)生?
  早先通過觀察特定的特性的算法稱為決策樹分割數(shù)據(jù)
 
  在這個會議的最初討論時,我導(dǎo)師曾提到了一個問題,令我第一次真正質(zhì)疑人工智能的可用性。早期傳統(tǒng)的人工智能技術(shù)的算法很容易理解,比如說,我們要造一個機器來測量人的身高和體重,并告訴他們是不是超重了。這個很簡單,我們只需要計算出這個人的體重指數(shù)(Body Mass Index, BMI),如果超過了特定閾限,那就是超重。這是人工智能的原型算法。如果我說某人肥胖,這是必須要有合理的判斷的(而不是熊孩子罵人),這個人的BMI確實是落在超重人群的平均BMI范圍里。
 
  現(xiàn)在大多數(shù)的機器已經(jīng)不是這么簡單了,它們采用大量復(fù)雜的數(shù)據(jù)作為輸入(比如高清晰度的圖片),經(jīng)過非常精細粒度的算法來完成輸出。這樣的話,簡單的閾限或決策樹的方法就不夠用了。漸漸地,系統(tǒng)采用了一套廣為人知的深度學(xué)習(xí)算法,去識別和學(xué)習(xí)大量數(shù)據(jù),用類似于人類的方式去細化模板。
AI面臨的挑戰(zhàn):無人車闖禍,我們該找誰?如何保證不再發(fā)生?
  圖注:典型的深度學(xué)習(xí)模型。它包含了若干個互相連通傳播信息的神經(jīng)元(圓圈),這與已發(fā)現(xiàn)的人腦運作模式十分相似
 
  這些系統(tǒng)性能非常好,但是學(xué)習(xí)過程很慢,因為需要很多數(shù)據(jù)來學(xué)習(xí)。
 
  “但是,有個問題:一旦它們給了我們結(jié)果,不管正確與否,我們并不知道機器是怎么得到這個結(jié)果的。”
 
  這個聽起來并不是那么要緊—在開始的時候,在機器學(xué)習(xí)系統(tǒng)里面,我們有兩種類型的數(shù)據(jù)—特征和標簽。特征是觀察到的變量,標簽是我們需要預(yù)測的。舉個例子,在之前的肥胖癥檢測器中,我們的特征是人的身高和體重,標簽是每個人的超重或者健康指標。為了從圖片中檢測癌癥細胞,特征是若干張器官的圖像,標簽是圖片有沒有癌癥細胞。
AI面臨的挑戰(zhàn):無人車闖禍,我們該找誰?如何保證不再發(fā)生?
  癌癥檢測算法會先掃描這組圖片
 
  機器學(xué)習(xí)算法一般會這樣解決問題,先給每個特征配置權(quán)重,相加,最后基于所得的和來做決定。比如,如果你要預(yù)測一個蘋果是不是壞了,你會先看蘋果的氣味、顏色,如果觸摸一下那么就還有它的質(zhì)感,最后大腦會配置給這些特征不同的權(quán)重。
AI面臨的挑戰(zhàn):無人車闖禍,我們該找誰?如何保證不再發(fā)生?
  假如蘋果爛了,光憑顏色一個特征就可以解決問題了
 
  計算機遵循類似的想法,只不過權(quán)重是通過不同的優(yōu)化算法算出來的。但是,在深度學(xué)習(xí)中,我們并不確定我們想用哪些具體的特征,更不用說配置權(quán)重。所以我們怎么辦?我們讓計算機自己學(xué)習(xí)選出最好的特征群,把它們用最佳方式組合來做決定,從某種意義上模擬人類大腦的做法。
 
  這個主意給我們帶來驚人的結(jié)果—在計算機視覺領(lǐng)域(這個領(lǐng)域研究如何讓計算機理解圖像數(shù)據(jù)),尤其是隨著高效GPU和新框架的出現(xiàn),使學(xué)習(xí)基本的圖像級別的概念變得小菜一碟。但是,要注意的是—我們討論的這些機器通過學(xué)習(xí)選出的特征,物理意義并不像傳統(tǒng)方法那么直觀。
AI面臨的挑戰(zhàn):無人車闖禍,我們該找誰?如何保證不再發(fā)生?
  這些例子展示了計算機從圖片中尋找的東西—看上去它們在檢測形狀,但是對于非圖像數(shù)據(jù),并不是這么直觀。
 
  大部分人不覺得這是個問題—從技術(shù)角度在現(xiàn)階段這并不是一個大問題,因為現(xiàn)在人工智能解決的任務(wù)都是具體的,比如從圖片中辨認人物和物體、臉部追蹤以及合成聲音信號。我們大致知道算法在學(xué)習(xí)什么樣的物體(事實上,這個展示是這個方面的一個最近的發(fā)展)。但是,當我們使用深度學(xué)習(xí)來處理那些有更多風(fēng)險的預(yù)測的時候,每個預(yù)測都需要合情合理,可以解釋。
 
  設(shè)想你是一家銀行,你有所有客戶詳細的交易信息和信用歷史。你使用一個復(fù)雜的深度學(xué)習(xí)算法來找出拖欠貸款者。既然你已經(jīng)有了一個大型數(shù)據(jù)庫囊括用戶的各類行為模式信息,算法解決這個問題可能會給出很高的準確率,但是,一旦你懷疑未來的拖欠者,你并不確切的知道到底是什么引起了懷疑,對于預(yù)測的解釋變得非常困難。
 
  大部分的深度學(xué)習(xí)系統(tǒng)沒有好的技術(shù)去理解它們的決策能力,這個也是研究的熱點。對于某些與特定任務(wù)相關(guān)的深度網(wǎng)絡(luò),尤其在計算機視覺,我們在理解這些系統(tǒng)上已經(jīng)有了很大的進步—對其較好的定位,理解是什么激發(fā)產(chǎn)生了一種算法以及算法是否確實(按照我們的理解)這么做了。但是總的來說,還是有很大的空間需要提高。
 
  機器學(xué)習(xí)有個很嚴重的缺陷—為了把信號和噪聲分開,需要很多人工處理?;蛘哂脤I(yè)的話說,過擬合。我說這個專業(yè)詞的意思是,當一個模型要擬合一個特定的數(shù)據(jù)集,用以預(yù)測新的未知的數(shù)據(jù),它可能對于已知數(shù)據(jù)擬合的過于完美。所以導(dǎo)致的結(jié)果是,當應(yīng)用于現(xiàn)實世界的時候,它就不會那么準確。
 
  具體來講,模型不是學(xué)習(xí)在這個世界中確實存在的模式,而是學(xué)習(xí)已經(jīng)采集數(shù)據(jù)集的模式。有幾種方式可以理解過擬合,對于感興趣的人現(xiàn)實中有很多的關(guān)于過擬合的例子。一個簡單的例子就是在你居住的地方是夏天,所以你把自己的行李箱裝滿了夏天的衣服,結(jié)果在阿姆斯特丹只有11度,你在那里只能冷的瑟瑟發(fā)抖。
AI面臨的挑戰(zhàn):無人車闖禍,我們該找誰?如何保證不再發(fā)生?
  
該圖反映了過擬合的情況,即,最后一幅圖顯然對噪音也進行了擬合
 
  關(guān)注過擬合問題的原因是想強調(diào)一下機器學(xué)習(xí)的可解釋性的重要性。如果我們不能理解這些機器學(xué)習(xí)算法到底學(xué)習(xí)的是什么,我們并不能判斷它們是不是過擬合了。舉個例子說,某機器算法是根據(jù)上網(wǎng)瀏覽歷史來預(yù)測可疑的上網(wǎng)行為。因為使用的大部分的訓(xùn)練數(shù)據(jù)是來自美國的19歲少年,那么用于預(yù)測美國的19歲少年以外的任何個體就會是有偏的,盡管他們的搜索歷史都有PewDiePie (專注恐怖與動作游戲)的視頻。
 
  這個問題的反響會隨著深度學(xué)習(xí)在推斷任務(wù)中的應(yīng)用增加而迅速加大。比如,我們看到很多研究關(guān)于醫(yī)療圖像預(yù)測 – 這個應(yīng)用需要更多的可解釋性和可理解性。除此之外,假如預(yù)測任務(wù)的批量太大不可能去人工檢查預(yù)測結(jié)果,我們就需要系統(tǒng)來幫我們理解和調(diào)整機器學(xué)習(xí)到底做了什么。
 
  這個威脅剛剛出現(xiàn),但是這個方面的研究需要更多的時間,來找到更好的解決辦法。但是,我們必須意識到模型可解釋性的重要性,尤其當我們建立模型是為了讓生活變得更好。
 
  我想用一個例子來結(jié)尾:如果一個人撞車了,我們可以找出原因,來理解事故是怎么發(fā)生的 – 也許司機喝醉了,也許路人正邊端著熱飲邊發(fā)短信呢。
 
  但是如果無人駕駛車撞到另外一輛車,致一名乘客死亡,我們?nèi)フ艺l呢?原因又是什么呢?你怎么保證它不會再發(fā)生呢?
 
  這些事故最近發(fā)生過幾次,隨著更多的人工智能系統(tǒng)的出現(xiàn),會有更多的失誤發(fā)生。為了更好的改正,我們需要理解到底哪里出了問題:這是今天人工智能要面臨的主要挑戰(zhàn)之一。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行