近日,我看到李飛飛在離開谷歌之后的首個亮點,在斯坦福大學(xué)啟動了一個“以人為本人工智能項目”,目標是創(chuàng)建“以人為本人工智能研究院(Stanford Human-Centered AI Institute (HAI))”。李飛飛與斯坦福大學(xué)前副校長,哲學(xué)家John Etchemendy共同擔(dān)任HAI研究院院長。李飛飛表示:這個項目是學(xué)校從校長到幾十位教授一年多以來的共同努力,今天終于公開。我們的宗旨是“推動人工智能的研究,教育,政策和實踐,以造福全人類”。研究院將致力于三個方向的工作:1)推進和發(fā)展下一代AI科學(xué)(著重與腦科學(xué)和認知學(xué)交叉),2)研究和預(yù)測AI對人類社會和生活的影響,3)設(shè)計和實踐以人為本的AI技術(shù)和應(yīng)用。
就是在李飛飛宣布在斯坦福大學(xué)啟動“以人為本人工智能項目”的當日, The 7th Asian Privacy Scholars Network (APSN) International Conference(第七屆亞太地區(qū)隱私保護學(xué)者聯(lián)盟國際會議)在南京郵電大學(xué)召開,本次國際會議主要聚焦:“人工智能與大數(shù)據(jù)時代的法律問題”。本人有幸作為本屆大會主席向來自亞太地區(qū)的隱私保護學(xué)者呼吁:“人工智能的發(fā)展須以人為本“,并發(fā)表了主旨演講,我的演講題目正是“發(fā)展‘以人為本’的人工智能”,以下是本人發(fā)言的主要內(nèi)容:
AI的發(fā)展已經(jīng)走過了60多年的歷程,期間出現(xiàn)了三次浪潮:第一波浪潮實際上是從1956年-1976年,最核心的是邏輯主義(符號主義),邏輯主義主要是用機器證明的辦法去證明和推理一些知識;第二波浪潮是從1976年到80年代中期,屬于AI的低潮,主要的是連接主義,即“出自大規(guī)模連接的命令”"order-emerging-out-of-massive-connections",連接主義持續(xù)了十幾年,大概到2006年又開始走下坡了。
人工智能的第三次浪潮(2006年-現(xiàn)在)與前兩次的浪潮有著明顯的不同,其代表性的成果就是深度學(xué)習(xí),深度學(xué)習(xí)技術(shù)由于能夠自動從海量數(shù)據(jù)中學(xué)習(xí)復(fù)雜的特征,因此被認為是新一代人工智能最重要、應(yīng)用最廣泛的技術(shù)。
目前,新一代AI尚沒有權(quán)威統(tǒng)一的定義,但我們從世界權(quán)威的韋伯字典可以了解 “智能”(Intelligence)的定義:Ability of learning or understanding things,or dealing with new or difficult situations,其中的3個關(guān)鍵字是:1.Learning(學(xué)習(xí)—目的是獲得知識或規(guī)則),2.Understanding(理解—基于知識做出評判或決策),3.Dealing(行為—基于理解做出相應(yīng)行動)。如何理解AI的深度學(xué)習(xí),可以從四個層面理解,We know what we know;We know what we don't know;We don't know what we know;We don't know what we don't know。2015年谷歌DeepMind公司研發(fā)的深度學(xué)習(xí)結(jié)合強化學(xué)習(xí)的“深度強化學(xué)習(xí)”技術(shù),該技術(shù)能夠?qū)W會玩Atari視頻游戲,并達到了可與人類匹敵的水平。事實上,“深度強化學(xué)習(xí)”技術(shù)就是AlphaGo的核心技術(shù)。
當前,人工智能研究的領(lǐng)域主要有五層:最底層是基礎(chǔ)設(shè)施建設(shè),包含數(shù)據(jù)和計算能力兩部分,數(shù)據(jù)越大,人工智能的能力越強;往上一層為算法,如卷積神經(jīng)網(wǎng)絡(luò)、LSTM (Long Short-Term Memory 長短期記憶網(wǎng)絡(luò))序列學(xué)習(xí)、Q-Learning、深度學(xué)習(xí)等算法,都是機器學(xué)習(xí)的算法;第三層為重要的技術(shù)方向和問題,如計算機視覺,語音工程,自然語言處理等。還有另外的一些類似決策系統(tǒng),像 reinforcement learning(增強學(xué)習(xí)),或像一些大數(shù)據(jù)分析的統(tǒng)計系統(tǒng),這些都能在機器學(xué)習(xí)算法上產(chǎn)生;第四層為具體的技術(shù),如圖像識別、語音識別、機器翻譯等等;最頂端為行業(yè)的解決方案,如人工智能在金融、醫(yī)療、互聯(lián)網(wǎng)、交通和游戲等上的應(yīng)用,這是我們所關(guān)心它能帶來的價值。
高速并行運算、海量數(shù)據(jù)、更優(yōu)化的算法共同促成了人工智能發(fā)展的突破??梢?,人工智能第三次浪潮的本質(zhì)上是一種建立在大數(shù)據(jù)基礎(chǔ)上的自我學(xué)習(xí)、判斷和決策的算法。如果我們把人工智能看成一個嗷嗷待哺育有無限潛力的嬰兒,那么,某一領(lǐng)域?qū)I(yè)的海量深度的數(shù)據(jù)就是喂養(yǎng)這個天才嬰兒的奶粉,奶粉的數(shù)量決定了嬰兒是否能長大,而奶粉的配方質(zhì)量(算法的質(zhì)量)則決定了嬰兒后續(xù)的智力發(fā)育水平。
AI的算法本質(zhì)是網(wǎng)絡(luò)的編程技術(shù),但這種編程技術(shù)絕非中立,人工智能的算法決策具有典型的“黑箱”特點,這應(yīng)當引起現(xiàn)代法律人的高度警惕和深入地研究,應(yīng)當從倫理學(xué)和法律融合的角度深入審視和研究AI的算法。筆者認為,人工智能在其發(fā)展進程中面臨的最大問題不是技術(shù)本身,而是倫理和法律問題。2017年6月,由聯(lián)合國國際電信聯(lián)盟主辦的主題為“人工智能造福人類”的全球峰會在日內(nèi)瓦召開。這次峰會聚焦了人工智能的兩大國際性問題:一是加速人工智能的研發(fā)和應(yīng)用,以應(yīng)對貧困、饑餓、健康、教育和環(huán)境保護等全球性挑戰(zhàn);二是探討如何確保人工智能的安全性并符合倫理規(guī)范,防止其帶來意想不到的后果。
已故著名物理學(xué)家、劍橋大學(xué)教授史蒂芬·霍金((Steven Hawking))在世時(2017年)曾警告:在我的一生中,見證了許多社會深刻變化,其中最深刻的,同時也是對人類影響與日俱增的變化,就是人工智能的崛起?;艚鹫J為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。他所擔(dān)心的這些問題就是AI的倫理和法律問題。
筆者認為,當前AI的研究領(lǐng)域應(yīng)重點關(guān)注機器道德(Machine Morality)、機器倫理學(xué)(Machine Ethics)、道德機器(Moral Machine)、價值一致論(Value Alignment)、人工智能道德(AI Morality),研究如何將人類良好的規(guī)范和道德價值嵌入AI系統(tǒng),讓AI更安全、讓AI更友好、讓AI更善良。我們應(yīng)當將人類優(yōu)良的道德規(guī)范和倫理價值(ethical value)嵌入AI系統(tǒng),建議重點要關(guān)注三個問題:一是要識別特定社會或團體的規(guī)范和價值;二是將這些規(guī)范和價值編寫進AI系統(tǒng);三是評估被寫進AI系統(tǒng)的規(guī)范和價值的有效性,即是否和現(xiàn)實的規(guī)范和價值相一致、相兼容。
對此,監(jiān)管機構(gòu)應(yīng)當出臺相關(guān)政策和制定相關(guān)法規(guī),重點規(guī)制AI/AS設(shè)計、開發(fā)與制造過程中的透明度,尤其是AI的算法必須確立法律的可追溯性原則,AI的行為決策全程應(yīng)當處于法律監(jiān)管之下。一方面需要建立監(jiān)督AI制造過程的標準,避免給終端人類和社會帶來傷害;另一方面,政策制定者可以限制計算機推理,以免其過分復(fù)雜,造成人們難以理解的局面。對AI的監(jiān)管,應(yīng)當體現(xiàn)三大原則:一是AI的發(fā)展應(yīng)當體現(xiàn)對人權(quán)的保護;二是優(yōu)先考慮AI對法律、社會倫理和侵犯個人隱私的沖擊;三是通過立法和強制性標準的制定,削弱AI對人類的風(fēng)險和負面影響。
中國國務(wù)院于2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》指出,人工智能是影響面廣的顛覆性技術(shù),可能帶來改變就業(yè)結(jié)構(gòu)、沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關(guān)系準則等問題,將對政府管理、經(jīng)濟安全和社會穩(wěn)定乃至全球治理產(chǎn)生深遠影響。為此提出:1.到2020年,部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立;2.到2025年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力;3.到2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。
人工智能的本質(zhì)是服務(wù)人類社會(AI as a service,AIaas),而人類社會的核心價值就是“以人為本”,由此,人工智能技術(shù)的發(fā)展應(yīng)當造福于人類,應(yīng)當貫徹“以人為本”的原則,這是發(fā)展人工智能的基石。歐盟法律事務(wù)委員會曾建議,在針對人工智能和機器人制定政策時,應(yīng)當進一步完善設(shè)計保護隱私(privacy by design)、默認保護隱私(privacy by default)、知情同意、加密等概念的標準。
筆者呼吁:即使有一天,當公民的個人數(shù)據(jù)成為“流通物”時,在任何情況下都不得觸及個人隱私數(shù)據(jù)這條紅線。隱私權(quán)是人類永恒的基本權(quán)利,人工智能的發(fā)展不能以剝奪人類的基本權(quán)利為代價。恰恰相反,人工智能應(yīng)該更好地保護人類的基本權(quán)利,其中就應(yīng)該包括隱私權(quán),這才是人工智能健康發(fā)展的正確方向。
不管AI世界將來有多么神奇,如果離開了人,再神奇的AI也會變得毫無意義。所以,我忠告AI的研究者、設(shè)計者、開發(fā)者,你們不能脫離AI服務(wù)人類的宗旨去思考那些與服務(wù)人類毫不相干的AI,你們更不能存有破壞人類社會的奇思怪想,這會把AI引向死胡同。你們一定要以人為出發(fā)點,以人為根本,以一種“為人類著想的善良“的品質(zhì)和使命感,著重讓AI解決與人類美好生活和人類健康發(fā)展相關(guān)的各種問題。