關(guān)于人工智能和法律,前美國國家安全顧問和國務(wù)卿基辛格在近日發(fā)表于 《大西洋月刊》的文章中曾談及一個自動駕駛汽車版本的 “電車難題”:如果自動駕駛汽車因突發(fā)情況,被迫在殺害老人和殺害孩子之間作出選擇,它會選擇誰?為什么?再進一步思考,如果這輛汽車撞死撞傷了人,誰又該為此負刑事責(zé)任?是這輛車,還是這輛車的設(shè)計者?
這個假設(shè)的場景只是人工智能面對法律問題的一個縮影。伴隨著人工智能和大數(shù)據(jù)技術(shù)的迅速發(fā)展,一系列類似的問題也接踵而來:人類生產(chǎn)生活方式的深刻變革將會給法律制度和社會治理帶來哪些挑戰(zhàn)?現(xiàn)行法治體系又該如何調(diào)整和應(yīng)對?近日,由華東政法大學(xué)人工智能與大數(shù)據(jù)指數(shù)研究院主辦,上海市大數(shù)據(jù)社會應(yīng)用研究會和律新社協(xié)辦的“人工智能、國家治理與法治論壇”在華東政法大學(xué)舉行,與會專家們針對上述問題展開了討論,為我們勾勒了人工智能時代下法治世界的圖景。
人工智能如何實現(xiàn)未來的精準(zhǔn)法治
在美劇《西部世界》中,主角福特有一句著名臺詞:“我們給機器編碼,是為了解碼人類。”在人工智能時代,隨著越來越多的社會活動轉(zhuǎn)移到互聯(lián)網(wǎng)上進行,人們在互聯(lián)網(wǎng)上留下海量數(shù)據(jù),使得原本不可預(yù)測和追蹤的社會行為變得可以被計算。無論是對企業(yè)的經(jīng)營還是政府的管理來說,這種“社會的計算化”都意義重大:企業(yè)可以通過分析客戶數(shù)據(jù)、投放定制化廣告來兜售自己的產(chǎn)品,政府可以利用海量數(shù)據(jù)對個人進行分類、評分和社會信用評級來實現(xiàn)預(yù)測性執(zhí)法,從而更好地進行精準(zhǔn)化治理。
但是,由于如今的“社會計算化”主要由商業(yè)力量推動和控制,這給政府的治理工作帶來了新的問題。上海交通大學(xué)凱原法學(xué)院教授鄭戈就指出,傳統(tǒng)上人們認為,政府掌握了最充分的個人數(shù)據(jù),從出生、入學(xué)、就業(yè)、婚姻、生育到死亡,但這些數(shù)據(jù)都是靜止的,它并不能生成對一個人動態(tài)的行為模式的分析?,F(xiàn)在,由于人的大部分線上活動不是在政府平臺上進行,而是在搜索引擎、購物平臺、社交網(wǎng)絡(luò)等由私人企業(yè)運營的商業(yè)平臺進行,因此大量的數(shù)據(jù)實際是掌握在私人企業(yè)手里。政府雖然可以在行政、司法和執(zhí)法的過程中要求企業(yè)提供特定的個人數(shù)據(jù),但這種要求只能在具體個案中針對特定人物,不能成為可供機器學(xué)習(xí)的大數(shù)據(jù)。而且,也可能遭到企業(yè)以保護商業(yè)秘密或合同關(guān)系為由的拒絕。
鄭戈的擔(dān)憂并非空穴來風(fēng)。在近日發(fā)生的“女孩坐滴滴順風(fēng)車遇害案”中,滴滴公司就以保護司機隱私為由,未在第一時間向警方提供車牌、駕駛?cè)诵畔ⅲ率咕仍袆友诱`。更為“諷刺”的是,滴滴一方面拒絕與政府合作披露用戶信息,另一方面又偷偷地濫用用戶的個人信息,典型的例子即是前不久因“空姐遇害案”引發(fā)爭議而下線的順風(fēng)車用戶標(biāo)簽和車主評價功能。
“從法律的角度來看,我們在考慮人工智能在所謂的精準(zhǔn)治理中的應(yīng)用時,首先要面對的就是政府和企業(yè)的關(guān)系問題——政府既需要與企業(yè)合作來獲取數(shù)據(jù)、購買產(chǎn)品和服務(wù),又需要作為企業(yè)與消費者之間的中立第三方來對企業(yè)進行監(jiān)管,保護消費者的個人數(shù)據(jù)。”在鄭戈看來,基本公共服務(wù)領(lǐng)域的公、私權(quán)力關(guān)系是未來治理需要解決的首要問題:“一方面,要將透明、公開、程序合法、說明理由等對公權(quán)力行使者的要求延伸到實際上行使著 ‘準(zhǔn)公權(quán)力’的企業(yè),使算法等技術(shù)化的監(jiān)控和決策手段不再是無法被問責(zé)的‘黑箱’;另一方面,要調(diào)整傳統(tǒng)的公法概念和規(guī)制手段,以應(yīng)對現(xiàn)時代公私合作、公私共治的普遍現(xiàn)象。”
人工智能可以替代法律工作者嗎
如今,“智慧司法”已然是大勢所趨:已在上海市全面推廣應(yīng)用、覆蓋上海刑事案件的90%以上的“刑事案件智能輔助辦案系統(tǒng)”,就是人工智能新科技和司法改革深度融合的典范。在對上海幾萬份刑事案件的卷宗、文書數(shù)據(jù)進行“深度學(xué)習(xí)”后,該系統(tǒng)已具備初步的證據(jù)信息抓取、校驗和邏輯分析能力。今年8月,一場法律界的“人機大賽”在重慶舉行,由重慶研發(fā)的人工智能法律機器人“大牛”與從全國公開招募的6名資深律師進行了法律服務(wù)比拼,比賽結(jié)果令人瞠目結(jié)舌——“大牛”的得分遠遠高于這6位資深律師。
上述這些例子都表明,法律從業(yè)人員的許多具體工作可以被人工智能所取代,這是否意味著人工智能會全面取代法律工作者?答案顯然是否定的。“人工智能所體現(xiàn)的技術(shù)理性有明顯的化約主義傾向,我們可以借助它來提高效率,取代一部分無需創(chuàng)造性和價值判斷的工作,比如闖紅燈罰款,但不能由它來做出事關(guān)人類福祉的最終決策。在涉及事實爭議和價值選擇的復(fù)雜問題上,人工智能只能被用來強化人類智能,而由人來作出最終的選擇和判斷。”鄭戈這樣說。
上海市法學(xué)會黨組書記崔亞東則進一步指出:“在未來的法律人才培養(yǎng)上,一方面要在高校設(shè)立法律人工智能研究中心,開設(shè)相關(guān)法律科技等方面的課程,培養(yǎng)法律和科技的復(fù)合高端人才。另一方面,我們也要明確在人工智能時代,法學(xué)教育的主業(yè)仍然是法律,人工智能的引入應(yīng)該是輔助法律從業(yè)人員更加高效、便捷、公正公開地處理法律事務(wù),至于這個證據(jù)能不能用、怎么用,如何量刑等問題,最終的決定權(quán)仍在法官、檢察官手中,這一點決不能走偏。”
人工智能偏離人類的預(yù)設(shè)怎么辦
美國波士頓動力公司曾設(shè)計出一款可以 “隨機應(yīng)變”的機器人:給它設(shè)定一個“搬箱子”的任務(wù),無論實驗人員怎么妨礙它(把箱子移到別處,或者直接把機器人推倒),它還是會“頑強地”爬起來完成任務(wù)。但是,有學(xué)者擔(dān)心,給機器人植入一個 “排查妨礙”的程序,如果它突然產(chǎn)生意識、學(xué)會自我學(xué)習(xí),它發(fā)現(xiàn)每次害自己完不成任務(wù)的人是這個實驗人員,那它會不會為了完成任務(wù)直接把這個實驗人員撂倒?可見,當(dāng)智能機器人被設(shè)定為一種由程序編碼而成并由此產(chǎn)生深度學(xué)習(xí)能力的物體時,它完全有可能超越人類對它的預(yù)設(shè),獨立實施某些犯罪行為,這就對現(xiàn)有的刑罰體系產(chǎn)生了沖擊。
對此,華東政法大學(xué)刑事法學(xué)研究院院長劉憲權(quán)教授在他的新書《人工智能時代刑事責(zé)任的演變》中指出,人工智能已經(jīng)遠遠不是作為犯罪工具那么簡單,它影響著刑事責(zé)任的分配。他這樣說:“現(xiàn)在一般將人工智能時代分為三類:前人工智能時代、弱人工智能時代、強人工智能時代。前人工智能時代中的機器人,我們稱之為普通機器人,比較典型的是ATM機和工業(yè)機械手。如果ATM機出了問題,我們不太可能去追究它的研發(fā)者和使用者。但在我們正處于的弱人工智能時代中,在自動駕駛技術(shù)日益普及的當(dāng)下,我們對研發(fā)者和使用者的責(zé)任定義就有了很大變化。比如,委內(nèi)瑞拉無人駕駛的炸藥,還有韓國的殺人機器,從法律的角度來看,這應(yīng)當(dāng)是研發(fā)者的責(zé)任。未來,如果強人工智能時代到來,機器人擁有了自由意志,就需要獨立承擔(dān)刑事責(zé)任。”盡管目前在“強人工智能時代是否會到來”這一問題仍有很大的爭議,但劉教授認為法律工作者的態(tài)度應(yīng)是寧可信其有、不可信其無:“我們必須預(yù)先設(shè)定一些應(yīng)對的法律,否則一旦強人工智能時代到來,關(guān)于人類的顛覆性問題就會出現(xiàn),甚至到時候,不是人類制定法律規(guī)制它,而是它制定法律規(guī)制人類,這并不是天方夜譚。”
類似地,《華東政法大學(xué)學(xué)報》主編馬長山教授也強調(diào)了要對現(xiàn)有法學(xué)理論進行顛覆性創(chuàng)新來應(yīng)對眼下的這場人工智能革命,他指出:“這個重建分為以下幾個方面:一是研究理念的轉(zhuǎn)向。我們傳統(tǒng)的研究理念是建立在以羅馬法學(xué)為基礎(chǔ)的法律體系,羅馬體系是以人和人、人和物的關(guān)系為重要基礎(chǔ),但隨著生產(chǎn)關(guān)系的變化,當(dāng)下的智能社會是以數(shù)據(jù)、信息、算法為基礎(chǔ),這意味著整個生產(chǎn)管理和人們的生活方式都發(fā)生了巨大變化,沿用傳統(tǒng)的理念可能無法解決許多問題。二是知識譜系的更新。現(xiàn)代法律體系是建立在理性主義和個人主義的基礎(chǔ)之上,但現(xiàn)在社會發(fā)展的去中心化、扁平化趨勢使得原先的‘理性人假設(shè)’等基礎(chǔ)理論被顛覆。此外,如果將來機器人產(chǎn)生意識,我們還需重新考慮主客體關(guān)系。三是理論與邏輯的重建。我們現(xiàn)在處理一些網(wǎng)絡(luò)信息、人工智能的案件是完全套用原本物理空間的邏輯而進行,但存在許多問題,比如網(wǎng)絡(luò)賭博案件,很難找到合適的管轄范圍,因此必須重建適用于智能互聯(lián)網(wǎng)時代的新邏輯。”
由此可見,不論是弱人工智能時代,還是強人工智能時代,人工智能與大數(shù)據(jù)對法學(xué)和法律實踐所造成的變革都已是不爭的事實。法學(xué)研究回應(yīng)人工智能時代提出的新課題,將會為司法實踐贏得主動權(quán)。未來已來,法律工作者們將手執(zhí)正義女神朱斯提提亞的長劍,用法治為人工智能的健康發(fā)展護航。