現(xiàn)在,每一個人不是在學(xué)習(xí)深度學(xué)習(xí),就是在準(zhǔn)備開始學(xué)習(xí)深度學(xué)習(xí)的路上。這個人工智能領(lǐng)域快速火了起來。大約有來自各年齡階段的十萬名學(xué)生在學(xué)習(xí)付費(fèi)或者免費(fèi)的深度學(xué)習(xí)課程。許多初創(chuàng)公司以及產(chǎn)品都打上了該領(lǐng)域的標(biāo)簽,就像流行用語一樣,但是真正使用了深度學(xué)習(xí)的卻很少。大多數(shù)人忽視了一個事實(shí),深度學(xué)習(xí)只占了機(jī)器學(xué)習(xí)領(lǐng)域的1%,而機(jī)器學(xué)習(xí)又只是人工智能領(lǐng)域的1%。剩下的99%都是大多數(shù)任務(wù)已經(jīng)在實(shí)際使用的。一個“深度學(xué)習(xí)領(lǐng)域?qū)<?rdquo;并不是一個“人工智能專家”。
深度學(xué)習(xí)并不是人工智能的同義詞
最廣為人知的人工智能工具來自于谷歌、Facebook等公司,大都是或者只是深度學(xué)習(xí),所以公眾會認(rèn)為新的人工智能突破是由或者將由深度學(xué)習(xí)實(shí)現(xiàn)。這是不正確的。像XGBoost這樣的決策樹并不出名,但是在許多Kaggle表格數(shù)據(jù)競賽中默默地打敗了深度學(xué)習(xí)。大眾媒體指出AlphaGo只用到了深度學(xué)習(xí),但是實(shí)際上它是 Monte Carlo樹搜索算法+深度學(xué)習(xí),并存在證據(jù)證明單單靠深度學(xué)習(xí)不足以讓它獲勝。許多強(qiáng)化學(xué)習(xí)任務(wù)是由NEAT算法(通過增強(qiáng)拓?fù)涞倪M(jìn)化神經(jīng)網(wǎng)絡(luò))實(shí)現(xiàn),不是基于BP的神經(jīng)網(wǎng)絡(luò)算法。這些都是人工智能領(lǐng)域有關(guān)深度學(xué)習(xí)的誤解。
我并不是說深度學(xué)習(xí)沒有在解決問題:深度學(xué)習(xí)確實(shí)很厲害。樹以及其他算法往往很難打敗深度學(xué)習(xí),有些任務(wù)中深度學(xué)習(xí)也是無法替代的,我也希望未來能開發(fā)出不含深度學(xué)習(xí)的系統(tǒng)能打敗深度學(xué)習(xí)?;蛟S也能夠解決深度學(xué)習(xí)作出的決策存在的法律噩夢(即使是正確的,但是被法律質(zhì)疑時無法解釋)。同時我想在新聞里讀到像“災(zāi)難性遺忘”(出現(xiàn)學(xué)習(xí)新的信息前突然忘記先前學(xué)習(xí)的信息的傾向)這樣的有關(guān)深度學(xué)習(xí)的事情,或者讀到解決過擬合問題的一些日常新聞。關(guān)于智能:深度學(xué)習(xí)僅僅相信得到的訓(xùn)練數(shù)據(jù),并不理解對與錯、現(xiàn)實(shí)與虛幻、是否公平。在某種程度上,人類有時也會相信假新聞,甚至小孩子也知道電影是虛構(gòu)的,并不現(xiàn)實(shí)。
現(xiàn)在的深度學(xué)習(xí)也許是曾經(jīng)的HTML?
20年前每個人都在學(xué)習(xí)HTML,這種編寫網(wǎng)頁的標(biāo)記語言,那時每個人都幻想成為一個“。com”億萬富翁。就像其他人一樣,我學(xué)習(xí)了每一種看似很有用的技術(shù):HTML、移動端應(yīng)用、深度學(xué)習(xí),我也希望每一個人在其一生中能夠不斷學(xué)習(xí)新事物。事實(shí)上,你不可能一輩子只學(xué)一種技術(shù)。如果你學(xué)習(xí)深度學(xué)習(xí),你可能一輩子都搞不懂AI。來自1995年的HTML已經(jīng)過時且無法滿足需求,它被CSS、Javascript 以及服務(wù)器端編程語言所接管。同理,深度學(xué)習(xí)總有一天也會過時且不夠用。許多流行的移動端APP都不包含HTML,所以誰知道未來的人工智能APP是否包含深度學(xué)習(xí)呢?
事實(shí)上,深度學(xué)習(xí)是一種源于1980年代的技術(shù),比HTML還悠久:70年代,帶有隱藏層的神經(jīng)網(wǎng)絡(luò)通過訓(xùn)練更多數(shù)據(jù)獲得了更好的結(jié)果,隨后重命名為深度學(xué)習(xí)并開始大肆宣傳。在1992年,我仔細(xì)檢查了一些神經(jīng)網(wǎng)絡(luò)源碼以及一些分形、元胞自動機(jī)之類的東西。就像大多數(shù)人,那時的我誤以為深度學(xué)習(xí)只是一個學(xué)術(shù)性數(shù)學(xué)難題,沒有實(shí)際用途。相反,我專注于學(xué)習(xí)給出直接結(jié)果的技術(shù):電子游戲的3D技術(shù)、互聯(lián)網(wǎng)等等。但是我們都錯了,深度學(xué)習(xí)能夠利用大數(shù)據(jù)做很多神奇的事情!2015年我著迷于Deep Dream(人工神經(jīng)網(wǎng)絡(luò)),接下來是GANs(生成對抗網(wǎng)絡(luò))等等。當(dāng)然,深度學(xué)習(xí)并不是我們發(fā)明的最后的完美的AI科學(xué)。
在過去的幾十年里,古老的深度學(xué)習(xí)已經(jīng)被廣泛研究和更新并應(yīng)用于更精確地解決更多任務(wù),不過沒有一個版本的深度學(xué)習(xí)(Convolutional, RNN, RNN + LSTM, GANs等)能夠解釋它的決策。在未來,深度學(xué)習(xí)能夠解決更多任務(wù)并取代一些工作,但不可能解決所有的問題,或者保持驚人的進(jìn)步以自我解決黑箱問題。

哲學(xué)家柏拉圖與亞里士多德正在說:深度學(xué)習(xí)可不能理解他們。
未來人工智能應(yīng)該去探索一些其他的新方法或已存在被忽略的方法。深度學(xué)習(xí)的限制在于僅僅認(rèn)為真理是數(shù)據(jù)中頻繁出現(xiàn)的地方,而統(tǒng)計(jì)較少的就是錯的或者頻繁出現(xiàn)地方的對立面。深度學(xué)習(xí)的公正性并不來自于它本身,而是來自于人類選擇并準(zhǔn)備的數(shù)據(jù)。深度學(xué)習(xí)不是用人類的方法來閱讀文本并翻譯出字里行間的意思。如果一個深度學(xué)習(xí)模型訓(xùn)練了100多本書:40本講了憎恨、戰(zhàn)爭、死亡和毀滅是多么糟糕,60本書講了希特勒的納粹主義是正確的,那么深度學(xué)習(xí)的結(jié)果將是100%納粹了。
深度學(xué)習(xí)本身是不會認(rèn)為屠殺猶太人、同性戀或者殘疾人是糟糕的事情,如果納粹注意是訓(xùn)練數(shù)據(jù)中最流行的觀點(diǎn)。難怪深度學(xué)習(xí)并不能解釋自己的決策,它會天真地說“我讀到的大多數(shù)書都說納粹主義是正確的,所以他就是正確的。”深度學(xué)習(xí)會學(xué)習(xí)并模仿有缺陷的邏輯而不是去發(fā)現(xiàn)缺陷,包括恐怖主義。就連小孩都能自己理解電影中誰是壞蛋,但是深度學(xué)習(xí)不能,除非人類一開始就非常明確地告訴它。深度學(xué)習(xí)中一些特定的東西,比如基于梯度下降的反向傳播算法、自定義深度學(xué)習(xí)硬件是很酷的,但是那大多數(shù)都是統(tǒng)計(jì)學(xué)和幾何學(xué),所以將不會出現(xiàn)在2037年的AI領(lǐng)域。
深度學(xué)習(xí)領(lǐng)域的人工智能或?qū)⑹欠欠ǖ?/strong>
對于大多數(shù)任務(wù)而言,深度學(xué)習(xí)領(lǐng)域的人工智能是或?qū)⑹欠欠ǖ?,不是符合?guī)則的。收集28個歐盟國家的居民數(shù)據(jù)的人或公司應(yīng)該遵循建立于2018年5月25日的《通用數(shù)據(jù)保護(hù)法規(guī)(GDPR)》。在這一天,歐洲的大多數(shù)APP將去除深度學(xué)習(xí),導(dǎo)致許多人工智能初創(chuàng)公司快速將深度學(xué)習(xí)替換成其他的東西,否則將面臨罰款。罰款金將高達(dá)全球收入的4%,包括在美國的收入。
GDPR要求針對自動決策作出正確的解釋,防止由于種族、意見、健康等等歧視而產(chǎn)生不好的影響。全球范圍內(nèi),像GDPR這樣的法律出現(xiàn)或者在計(jì)劃內(nèi)只是時間問題。《美國公平信貸報(bào)告法》要求披露所有影響消費(fèi)者信用評分的因素,最多允許4個因素。深度學(xué)習(xí)的影響因素常常有上千或者百萬級,不僅僅只有4個,如何簡化為4個?人工智能,比如比特幣ICO,開始忽視規(guī)則,只不過法律和罰款總會來的。
深度學(xué)習(xí)系統(tǒng)在辨別小貓照片或者在自拍時添加小兔耳朵特效時都需要更多相關(guān)的決策,在未來將被非深度學(xué)習(xí)系統(tǒng)所替代。人工智能需要可解釋的,與深度學(xué)習(xí)大大不同,你能用簡單、合法的詞語向法官或者普通使用者解釋結(jié)果。深度學(xué)習(xí)的復(fù)雜性,使得它對于法官和用戶來說就是一種“魔法”,具有法律風(fēng)險(xiǎn):并不是很酷炫的未來。深度學(xué)習(xí)會建議或者警示人類,比如從醫(yī)學(xué)圖像中檢測疾病,由醫(yī)生核實(shí),但是這只是半自動化,缺少細(xì)節(jié)。而對被AI拒絕(拒絕貸款、工作等等)需要解釋用戶說點(diǎn)什么呢?
法律包括了“解釋權(quán)”,比如為什么工作或者貸款被拒絕了。深度學(xué)習(xí)給出的結(jié)果,不是自然(法律)語言能解釋的。你可以得到數(shù)頁有關(guān)深度學(xué)習(xí)的變量的內(nèi)容,但是法官或用戶不能接受,因?yàn)榧词故亲詈玫臄?shù)學(xué)家或者其他算法也不能將深度學(xué)習(xí)的模型用詞語簡單解釋。
甚至在人類做出最終決定時,人工智能工具應(yīng)該給出詳盡的理由使人們能夠發(fā)現(xiàn)錯誤(以便重寫、撤銷AI的決策),或者接受決策并簡單復(fù)制、粘貼并在AI的解釋上簽名。沒有人知道如何修改深度學(xué)習(xí)來給出像人類一樣的解釋,所以深度學(xué)習(xí)難以遵從規(guī)則!這影響了數(shù)個其他AI和機(jī)器學(xué)習(xí)算法,不過也只是一些,不像深度學(xué)習(xí)那么多。迭代決策樹或者集成決策樹也同樣變得難以解釋。但是在未來,嶄新或者重新發(fā)現(xiàn)的AI將為自己作出的決策所辯護(hù),這些AI將替代深度學(xué)習(xí)和人類。
在GDPR的案例中,只有人類的工作人員能夠拒絕某項(xiàng)申請:AI能夠自動化操作某些積極的結(jié)果,但當(dāng)AI拒絕了貸款或者工作等等,就需要AI把工作轉(zhuǎn)交給工作人員,由工作人員來處理這些令人好奇且生氣的消極的決策。在拒絕的案例里,工作人員從基于深度學(xué)習(xí)的AI那里無法得到幫助或者解釋,他們并不能知道深度學(xué)習(xí)的邏輯是多還是錯。他們不得不從頭檢查數(shù)據(jù),以決定最終是否拒絕,并寫下決策的合理原因。
這兒的風(fēng)險(xiǎn)在于,工作人員為了節(jié)省金錢和時間,將對AI的拒絕做出假的解釋,盲目地接受了AI之前作出的決策。但是法官們需要對AI的拒絕的公正性作出裁決,同樣會出于比較,去詢問為什么其他人被接受了。為了安全起見,你需要對于接受的決策給出有說服力的原因,不僅僅只是拒絕的決策,不管這理由在GDPR這樣的法律中是什么。非深度學(xué)習(xí)的人工智能系統(tǒng)把所有決策的解釋提供給用戶,法官和支持人員,進(jìn)而用于完全自動化或半自動化的決策。
可解釋能力在任何法律以及深度學(xué)習(xí)之前,就已經(jīng)是一個大問題。在反托拉斯案件中,像谷歌這樣的公司被問到為什么在搜索結(jié)果頁頂部顯示某一產(chǎn)品,而不是其他產(chǎn)品。這在深度學(xué)習(xí)出現(xiàn)之前也有過:許多其他算法也以一種瘋狂的方式來混合數(shù)據(jù)以獲得結(jié)果,所以沒有人能輕易地重建決策的邏輯。
法官們被告知工程師們并不了解詳情,線性代數(shù)的頁面被當(dāng)作證據(jù)。這不能圓滿結(jié)束:甚至在一個具體的法律出現(xiàn)之前,已經(jīng)有多個案件,數(shù)十億美元的罰款被裁定,并且伴隨著警告要求改變制度。用戶自動拒絕商店、銀行、保險(xiǎn)等自動決策單元的工作、貸款、退款等集體訴訟將成為常態(tài),無法解釋將意味著“無防御”、被罰款和品牌公關(guān)災(zāi)難。
對大多數(shù)人來說,“人工智能”是指科幻電影AI,它能提供聰明的解釋,人們可以很快地決定他們是否同意,對進(jìn)行法律驗(yàn)證非常容易。大多數(shù)人,包括法官和寫GDPR的,知曉公司是把AI放在第一位,或者喜歡AI元素,期望AI像電影中一樣,即使被法院傳召,也能捍衛(wèi)自己的決定,這些令用戶和法官都印象深刻。
相反,我們就無法解釋“深度學(xué)習(xí)“人工智能,將無法使用于很多任務(wù),甚至對于可以解決,也不能用,只是因?yàn)槿狈山忉屝浴I疃葘W(xué)習(xí)不會節(jié)省成本,也不會解決敏感的自動化決策的工作。即使人類最終必須作出最終決定,工具AI解釋他們的建議將比不給出緣由而做出響應(yīng)的AI更可取??山忉尩腁I,一旦被(再)發(fā)現(xiàn),將會是更加安全、合法合規(guī)、便宜、快速,并取代深度學(xué)習(xí)和人類。深度學(xué)習(xí)是1960-1980年代發(fā)明的,從2010年之后又被重新發(fā)現(xiàn)?;蛟S未來可解釋的AI已經(jīng)被一些研究者在某些地方描述出來,但不是深度學(xué)習(xí),所以可能好多年都沒有人關(guān)心和開發(fā),直到它們被重新發(fā)現(xiàn)和炒熱。
GDPR,自動決策,也需要防止基于種族、意見、健康狀況所產(chǎn)生的歧視的影響。但對于深度學(xué)習(xí)的訓(xùn)練,是基于從用戶模型生成的數(shù)據(jù)如社會媒體和新聞(而不是初始真實(shí)數(shù)據(jù),如醫(yī)療和財(cái)務(wù)記錄),這總是含有偏見,不精準(zhǔn)。如前所述,深度學(xué)習(xí)可以閱讀大量的文本和數(shù)據(jù),并模仿其內(nèi)容,但不會批判性地理解它。深度學(xué)習(xí)會更相信所發(fā)現(xiàn)的事物,強(qiáng)調(diào)數(shù)據(jù)中的模式和趨勢,從而放大人類社會的偏見和問題。數(shù)據(jù)顯示,黑人比白人更容易被捕:如果犯罪發(fā)生,深度學(xué)習(xí)將首先懷疑黑人。數(shù)據(jù)顯示,公司董事中男性比女性多:深度學(xué)習(xí)將更偏愛男性求職者。
在訓(xùn)練數(shù)據(jù)中,深度學(xué)習(xí)的決定最終會比一般樣本更具歧視性、種族主義和性別歧視。這個問題發(fā)生在所有ML算法中,但是深度學(xué)習(xí)模型偏差是最難測試、檢測、控制和調(diào)優(yōu)的方法之一。它難以修復(fù),以至于不僅僅是試圖修補(bǔ)它,而是已經(jīng)造成突然取消了許多深度學(xué)習(xí)實(shí)驗(yàn),從聊天機(jī)器人變得納粹化和可惡,到應(yīng)用程序通過“美麗”過濾器美白黑臉照片。

深度學(xué)習(xí)是一個神經(jīng)網(wǎng)絡(luò),你無法單獨(dú)編輯每個答案的結(jié)果
你不能在通過訓(xùn)練后平衡補(bǔ)丁來修正帶有歧視性的種族主義或性別歧視的深度學(xué)習(xí)模型。深度學(xué)習(xí)是一個神經(jīng)網(wǎng)絡(luò),并不像其他一些人工智能方法,不能對特定的答案進(jìn)行局部手術(shù),你必須重新訓(xùn)練所有不同,100%平衡和公平的數(shù)據(jù)以及這在世界中非常罕見的數(shù)據(jù)。深度學(xué)習(xí)模仿在數(shù)據(jù)中發(fā)現(xiàn)的東西,而不理解它:深度學(xué)習(xí)不會否定任何數(shù)據(jù),也不會計(jì)算出社會中的不公,深度學(xué)習(xí)只是“學(xué)習(xí)數(shù)據(jù)”。你應(yīng)該雇傭一個專門的人員來創(chuàng)造一個理想社會的虛假的公平數(shù)據(jù),白人被逮捕的頻率和黑人一樣,導(dǎo)演中有50%是女性,等等。但是,創(chuàng)建由人類專家編輯的大量不帶偏見的數(shù)據(jù)的代價,僅僅是為了訓(xùn)練深度學(xué)習(xí)模型,又如何說明AI值得取代人類呢!此外,即使你訓(xùn)練了一個真正公平的深度學(xué)習(xí)模型,你也沒有證據(jù)說服法官或用戶了解任何決定的公正性,因?yàn)樯疃葘W(xué)習(xí)不會給出任何解釋。
深度學(xué)習(xí)將是次要的,用于非商業(yè)應(yīng)用程序或游戲,不構(gòu)成法律風(fēng)險(xiǎn)。當(dāng)可做解釋的AI流行起來的時候,深度學(xué)習(xí)將會像磁帶或者軟盤一樣被淘汰。人們玩游戲輸?shù)魰r不會說服一個法官對AI公司進(jìn)行罰款,因?yàn)樗荒芙忉孉I是怎么贏的。不喜歡FaceApp的人,將他們自拍照片變得更老,更年輕,或者異性的,不大可能說服法官對FaceApp進(jìn)行罰款,因?yàn)樗荒芙忉孉L如何決定新的外表(除了“種族”濾波器,這是在大規(guī)模的抗議活動后移除的)。檢測醫(yī)學(xué)圖像中的疾病是安全的一種深度學(xué)習(xí)應(yīng)用,只要用戶在向人類醫(yī)生確認(rèn)后服用藥物。
在法律上安全的深度學(xué)習(xí)市場是非常有限的:法官可以在所有情況下進(jìn)行處罰,決定的結(jié)果可以作出經(jīng)濟(jì)上或健康的差異,或歧視性的,深度學(xué)習(xí)將無法幫助理解是否以及為什么該決定是公平的。自動駕駛汽車怎么樣?深度學(xué)習(xí)似乎是一種法律風(fēng)險(xiǎn),不僅僅是藝術(shù)、游戲或趣味笑話?,F(xiàn)有的非深度學(xué)習(xí)方法可以在需要時替換深度學(xué)習(xí),新方法將被發(fā)現(xiàn),因此AI的進(jìn)展將繼續(xù)順利進(jìn)行。特別是如果每個人都學(xué)習(xí)(并投資)所有人工智能和機(jī)器學(xué)習(xí)中舊的和新的算法,不僅僅是深度學(xué)習(xí):這才是成為“整個人工智能終身專家”的唯一途徑。
除了深度學(xué)習(xí)是“非法的”用于許多有用的,它可以解決的任務(wù),它也有幾個任務(wù)不能解決:那些需要抽象推理找出什么是公平的和不公平的,在看到的數(shù)據(jù),解釋自己獨(dú)特的邏輯。即使對于不需要解釋的任務(wù),深度學(xué)習(xí)似乎是最好的系統(tǒng),像圖像識別,深度學(xué)習(xí)并不像人眼那樣安全。你可以用“對抗性的例子”來欺騙深度學(xué)習(xí):像貓一樣的照片,加上無形的干擾,可以欺騙深度學(xué)習(xí)像看到其他東西,比如像一只狗。所有的人仍然會看到一只貓,但深度學(xué)習(xí)會看到一只狗或任何黑客秘密嵌入的東西。這可以利用路牌來破解目前的自動駕駛汽車。新的AI系統(tǒng)可以抵抗這個黑客,將取代深度學(xué)習(xí)。
Keras一書的作者,最受歡迎的深度學(xué)習(xí)庫,在自己的文章里寫 “深度學(xué)習(xí)的局限性”,“深度學(xué)習(xí)唯一真正的成功是將地圖空間X映射到Y(jié)空間,使用連續(xù)的幾何變換的能力,根據(jù)大量的人工標(biāo)注數(shù)據(jù)。” 這些空間有很多尺寸,不只是3D,這就是深度學(xué)習(xí)如何來模仿畢加索藝術(shù)風(fēng)格,撲克中虛張聲勢和一些任務(wù)中展示的創(chuàng)造力。但用通俗的話來說,我會說這意味著:深度學(xué)習(xí)可以訓(xùn)練識別貓的照片,在不了解貓是什么的情況下;在不知道什么是種族主義者的情況下,就成為種族主義者。深度學(xué)習(xí)可以識別貓或種族主義者或贏得游戲,這是令人矚目的進(jìn)步,但深度學(xué)習(xí)不能解釋為什么照片顯示一只貓,或某種決定是偏向種族主義者的。
在《深度學(xué)習(xí)的未來》中,Keras作者介紹了他的一個新系統(tǒng),深度學(xué)習(xí)是只存在于“幾何模塊”中,不與“算法模塊”和“元學(xué)習(xí)”有關(guān)聯(lián)。這將增加所需要解決的任務(wù)的數(shù)量和類型,但由于深度學(xué)習(xí)模塊的存在,仍然無法解釋這些決定。就像我們無法用語言來解釋我們大腦中的某些情緒或圖像。人類的解釋,大多是編造的,過于簡單的解釋,以至于每個人似乎都認(rèn)為是準(zhǔn)確的。機(jī)器的算法卻被不公平地要求精確。其他專家正在起草新的人工智能系統(tǒng)根本不包括深度學(xué)習(xí),但他們?nèi)狈Y金:現(xiàn)在每個人都只在深度學(xué)習(xí)投資,深度學(xué)習(xí)狂熱將持續(xù)一段時間。沒有人知道下一個大AI會是什么,但不太可能是深度學(xué)習(xí) 2.0。
深度學(xué)習(xí)被大肆宣傳,因?yàn)橹挥性诶鏇_突中,銷售深度學(xué)習(xí)軟件和硬件的人才會在AI辯論中接受采訪。你有注意到任何“自然智慧”專家,如心理學(xué)家和哲學(xué)家那樣地支持深度學(xué)習(xí)?
如果你還沒來得及學(xué)習(xí)AI,你可以考慮等待下一個AI系統(tǒng)興起,并準(zhǔn)備好并直接研究它,跳過深度學(xué)習(xí)。否則,如果你有需求學(xué)習(xí)AI,我建議你一定要深入了解整個人工智能和許多機(jī)器學(xué)習(xí)領(lǐng)域的知識,而不僅僅是深度學(xué)習(xí)。