国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

為何機器人搶不走你的工作?至少現(xiàn)在還不行

   日期:2018-04-25     來源:新東方前途出國    作者:liaiai     評論:0    
標簽:

早在1959年,Madaline就憑借超凡智慧解決了一個棘手難題:電話線路上的回聲。當時,長途電話中每次通話聲音都會有回響,造成通話者的很大困擾。

瑪?shù)铝帜軌蜃R別輸入與輸出的的相同信號,然后用電子的方式刪除回聲,解決了這個問題,這一簡潔的解決方案沿用至今。當然,瑪?shù)铝植皇侨祟悾且粋€多元自適應(yīng)線性神經(jīng)元(Multiple ADAptive LINear Elements)系統(tǒng),簡稱“Madaline”。這是人工智能首次應(yīng)用于工作領(lǐng)域。

今天,人們普遍認為智能計算機會搶走我們的工作,在你早餐還沒吃完以前,它就已經(jīng)完成了你一周的工作量,而且他們還不休息,不喝咖啡,也不要退休金,甚至不用睡覺。但事實上,雖然很多工作未來都會自動化,但至少短期內(nèi),這種新品種智能機器更有可能是與我們一起工作(而不是取代人類)。

麥肯錫認為5%的工作可以實現(xiàn)完全自動化,60%的職業(yè)有大約三分之一的工作可由機器人完成

雖然人工智能機器在很多領(lǐng)域建樹非凡,譬如預(yù)防欺詐,甚至比醫(yī)生還可靠的癌癥診斷。但現(xiàn)今最尖端的人工智能機器也跟一般人腦智力相差甚遠。

麥肯錫2017年的一份報告認為,在現(xiàn)有科技下,只有5%的工作可以完全自動化,60%的職業(yè)中有大約三分之一的工作可由機器人完成。

千萬別忘了,并非所有機器人都使用人工智能——有些用,很多不用。問題是,阻礙智能機器人通過人工智能接管世界的毛病,也恰恰是它們與人類共事顯得非常糟糕的原因。谷歌的相片識別軟件曾經(jīng)將黑人的臉辨認為猩猩,人工智能機器也不能完全自定義目標,解決問題,甚至是運用基本常識都有問題,這些新一代機器工人所缺乏的這些技能,對于人類,即或是最愚鈍者,也是易如反掌。

因此,在心灰意冷之前,你需要了解幾點與新的機器人同事一起工作的法則。

法則一:機器人不會像人類一樣思考

大約與瑪?shù)铝指镄麻L途電話的同時,英籍匈牙利哲學家波蘭尼(Michael Polanyi)在苦苦思索人類智力的問題。波蘭尼意識到,人類的有些技能,例如使用準確的語法,可以輕易地歸納成規(guī)則并向他人解釋,有些則不能。

人類能不自覺地運用所謂的隱性能力,用波蘭尼的話來說是"人類所知多于所能表述"。這包括騎自行車和揉面,以及更高水平的實踐能力。唉,如果我們不懂規(guī)則的話,就不能把規(guī)則教給一臺計算機。這就是波蘭尼悖論。

為了解決這個問題,計算器科學家沒有試圖逆向設(shè)計人類智力,而是給人工智能開發(fā)了全新的思考方式——用數(shù)據(jù)思考。

微軟研究院(Microsoft Research)高級研究員卡魯阿納(Rich Caruana)說:"你可能以為人工智能的原理是我們先了解人類,然后以同樣的方式構(gòu)建人工智能,但事實并非如此。"他以飛機為例,我們早在詳細了解鳥類飛行原理之前就造出了飛機,使用的空氣動力學原理不一樣,但今天我們的飛機比任何動物都飛得更高更快。

與瑪?shù)铝忠粯?,許多人工智能主體都是"神經(jīng)網(wǎng)絡(luò)",它們通過分析大量數(shù)據(jù),構(gòu)建數(shù)學模型來學習。例如Facebook用大約400萬張照片來訓練人臉識別軟件DeepFace。DeepFace在標注為同一個人的不同圖像中尋找模式樣本,最終學會人臉匹配,成功率達97%。

世界頂尖圍棋手,19歲的柯潔在DeepMind挑戰(zhàn)賽中對戰(zhàn)人工智能軟件AlphaGo

類似DeepFace的人工智能機器是硅谷的明日之星,并且已經(jīng)在駕車、語音識別、文字翻譯、標注照片等方面超過了其開發(fā)者,預(yù)計未來還將進軍包括醫(yī)療以及金融在內(nèi)的眾多其他領(lǐng)域。

法則二:機器人新朋友并非絕對可靠,它們也會犯錯

然而這種依靠數(shù)據(jù)的思維方法也可能會犯下大錯,例如某人工神經(jīng)網(wǎng)絡(luò)曾經(jīng)把3D打印的烏龜認成了步槍。因為這個程序無法進行概念推理 ,不會想到"這個東西有鱗和殼所以可能是只烏龜"。相反,它們是根據(jù)模式思考——這個例子中是以像素為單位的視覺模式。因此,改變圖像中的某個像素,一個合理答案就可能演變成無稽之談。

而且它們也不具備工作中必不可少的常識,不能把已有知識運用到新情境中。

DeepMind人工智能就是一個經(jīng)典案例。2015年時DeepMind獲令操作經(jīng)典街機游戲《乓》(Pong)并要取得高分。如你所想,它幾小時就擊敗了人類玩家,而且還開發(fā)了全新的獲勝方式。但是讓它再去玩類似的另一款游戲《打磚塊》(Breakout),人工智能又得從零開始學起。

開發(fā)人工智能的遷移學習能力已經(jīng)成為研究的一大領(lǐng)域,例如一個名為IMPALA的系統(tǒng)已能在30種情境下轉(zhuǎn)換所學得的知識。

這身綠色龍裝能讓喂奶機器人看上去友善一些

法則三:機器人無法解釋自己的決定

人工智能的第二個問題是一個現(xiàn)代版波蘭尼悖論。我們并不完全清楚人腦的學習機制,因此我們讓人工智能用統(tǒng)計學家的方式來思考。諷刺的是,我們現(xiàn)在對人工智能如何思維也知之甚少,于是有了兩套未知系統(tǒng)。

這通常被稱為"黑匣子問題"——你知道輸入的數(shù)據(jù),也知道得出的結(jié)果,但不知道眼前的盒子是怎么得出結(jié)論的??敯⒓{說,"我們現(xiàn)在有兩種不同的智能,但兩種我們都無法完全理解。"

人工神經(jīng)網(wǎng)絡(luò)沒有語言能力,所以無法說明其所作所為及原因,而且跟所有人工智能一樣也沒有常識。

一些人工智能機器人正在受訓學著獲取記憶,并對記憶賦予意義,從而可用于護理行業(yè)

幾十年前,卡魯阿納將醫(yī)療數(shù)據(jù)輸入人工神經(jīng)網(wǎng)絡(luò),包括癥狀及其后果,從而計算在任何一天患者的死亡風險有多大,讓醫(yī)生能夠采取預(yù)防措施。效果似乎不錯,直到有天晚上一位匹茲堡大學(University of Pittsburgh)的研究生發(fā)現(xiàn)了問題。他用一個更簡便的算法處理同一組數(shù)據(jù),逐條研究神經(jīng)網(wǎng)絡(luò)做診斷的邏輯,其中一條診斷是"如果你患有肺炎,那么患哮喘對你是有好處的"。

卡魯阿納說,"我們?nèi)栣t(yī)生,他們說'這太糟糕了,你們需要修正'"。哮喘是引發(fā)肺炎的重要風險因素,因為二者都會影響肺部。人們永遠也不知道這個智能機器如何得出了哮喘對肺炎有益的結(jié)論。有種解釋是,有哮喘病史的患者一開始患肺炎,就會盡快去看醫(yī)生,這可能人為地提高了他們的存活率,因此人工智能就錯誤地認為有哮喘對肺炎是有幫助的結(jié)論。

隨著人工智能越來越廣泛地用于公益事業(yè),許多業(yè)內(nèi)專家也越來越擔心。今年,新的歐盟法規(guī)生效,授權(quán)個人可以解釋人工智能決策背后的邏輯。與此同時,美國軍方的研究機構(gòu)國防部高級研究計劃局(Defense Advanced Research Projects Agency, Darpa)投入七千萬美金,以研究可解釋其行為的人工智能。

Darpa該項目負責人岡寧(David Gunning)說,"近來,系統(tǒng)的準確度有了質(zhì)的提高,但問題是這些系統(tǒng)太隱晦、太復雜,我們不知道它為什么推薦某個東西,或是在游戲里做某個動作。"

法則四:機器人可能有偏見

人們越來越擔心一些人工智能的運作可能會偶爾藏有意識偏見,譬如性別歧視或種族歧視。例如最近有一款軟件用來評估犯人再次犯罪的可能性,它對黑人就雙倍的嚴苛。

這完全取決于人工智能受到怎樣的訓練,如果它們接收的數(shù)據(jù)無懈可擊,那它們的決定就很可能正確,但多數(shù)時候人的偏見已經(jīng)夾在其中。谷歌翻譯里就有很明顯的例子。一位研究員在去年出版的《傳媒》(Medium)雜志中指出,如果在谷歌翻譯中把英文"他是位護士,她是位醫(yī)生"翻譯成匈牙利文再譯回英文,翻譯機給出的是相反的句子:"她是位護士,他是位醫(yī)生"。

翻譯機接受了一萬億網(wǎng)頁內(nèi)容的數(shù)據(jù)訓練,但它只能以尋找模式樣本來運算,譬如它發(fā)現(xiàn)的醫(yī)生以男性居多而護士以女性為主。

另一種可能出現(xiàn)偏見的原因是數(shù)學加權(quán)(數(shù)學計算中將參數(shù)比重加入計算稱之為加權(quán))導致的。跟人一樣,人工智能也會對數(shù)據(jù)進行"加權(quán)"分析——看哪個參數(shù)更重要。某種算法可能認為郵政編號跟居民信用評分是有關(guān)系的(美國已有這樣的實例),這就會出現(xiàn)歧視少數(shù)族裔的計算結(jié)果,因為他們可能住在較貧窮的小區(qū)里。

不僅僅是種族歧視和性別歧視的問題,還會有我們從未想到過的歧視。諾貝爾獎得主經(jīng)濟學家卡內(nèi)曼(Daniel Kahneman)窮其一生研究人類思維中的非理性偏見。他在2011年接受魔鬼經(jīng)濟學(Freakonomics)博客訪問時,很好地解釋了這個問題。他說:"本質(zhì)上無論是人還是人工智能,經(jīng)驗法則都會造成偏見,但人工智能的經(jīng)驗法則未必與人的經(jīng)驗一樣。"

機器人的時代即將到來,并將永遠改變未來的工作,但在它們變得更像人類之前,還需要我們守護在它們旁邊。令人難以置信的是,硅谷的同事似乎在這方面做得非常之出色。

 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行