本期嘉賓
孫佑海:天津大學(xué)法學(xué)院院長
高紹林:北京大學(xué)法律與人工智能研究中心專家顧問、天津市人大法制委員會(huì)原主任委員
張宜云:天津市人大立法研究所助理研究員
萬 勇:中國人民大學(xué)法學(xué)院教授、國家版權(quán)局國際版權(quán)研究基地研究員
曹建峰:騰訊研究院高級(jí)研究員
鄧煜坤:上海厚勢汽車CEO
導(dǎo)讀
機(jī)器翻譯、語音識(shí)別、智能家居、無人駕駛……隨著人工智能技術(shù)的不斷發(fā)展成熟,其正在越來越深度地介入人們的生活,相關(guān)的風(fēng)險(xiǎn)也開始不斷暴露。人工智能是否亟須立法規(guī)制?如進(jìn)行規(guī)制又該秉承什么原則?不同細(xì)分應(yīng)用領(lǐng)域的規(guī)制重點(diǎn)又該如何把握?本期“聲音版”邀請相關(guān)法律專家、行業(yè)從業(yè)者一道進(jìn)行探討,敬請讀者關(guān)注。
有效應(yīng)對新型風(fēng)險(xiǎn)必須加快立法進(jìn)程
□ 孫佑海
2018年9月,第十三屆全國人大常委會(huì)向社會(huì)公布本屆全國人大立法計(jì)劃,人工智能立法列入其中,這是人工智能領(lǐng)域具有重大歷史意義的標(biāo)志性事件。在當(dāng)代人工智能飛速發(fā)展的新形勢下,我們既要認(rèn)清新一代人工智能技術(shù)是時(shí)代之需、發(fā)展之要、民生之盼,也要看到因技術(shù)短板、監(jiān)管不力、應(yīng)用失范等因素而引發(fā)的潛在風(fēng)險(xiǎn)及對社會(huì)帶來的實(shí)際危害。唯有未雨綢繆地找準(zhǔn)、判明人工智能發(fā)展帶來的風(fēng)險(xiǎn)點(diǎn),并及時(shí)采取法律應(yīng)對措施,才能在搶抓戰(zhàn)略機(jī)遇的同時(shí),適時(shí)化危為機(jī),確保社會(huì)規(guī)范有序。
人工智能可能帶來的法律風(fēng)險(xiǎn),主要有四個(gè)方面:一是利用人工智能危害社會(huì),造成刑事犯罪的風(fēng)險(xiǎn)。以無人機(jī)為例,隨著科技進(jìn)步,智能無人機(jī)技術(shù)越來越先進(jìn),應(yīng)用越來越普及,也給國家安全、公共安全和個(gè)人安全帶來嚴(yán)重威脅。近年來,無人機(jī)頻繁闖入各地機(jī)場凈空區(qū),多次造成航班晚點(diǎn),甚至對航空飛行安全構(gòu)成了威脅。2014年,我國北方某地就發(fā)生了一次無人機(jī)威脅飛行安全事件;2017年2月2日和3日兩天內(nèi),我國南方某機(jī)場竟發(fā)生4起無人機(jī)非法飛行事件。僅隔一天,鄰近城市的機(jī)場又發(fā)生兩起無人機(jī)闖入機(jī)場凈空保護(hù)區(qū)事件,無人機(jī)甚至直接飛入機(jī)場的跑道區(qū)域。以上,對于觸犯刑律的,應(yīng)當(dāng)承擔(dān)刑事責(zé)任,而相應(yīng)的法律應(yīng)當(dāng)抓緊完善。還有一些“擒拿格斗機(jī)器人”產(chǎn)品,因其具有高度自主性,可以自行對目標(biāo)進(jìn)行攻擊,一旦程序出錯(cuò)失控,則很可能向人群進(jìn)攻,成為人類公共安全的重大隱患。這都需要通過立法進(jìn)行規(guī)制。
二是因開發(fā)利用人工智能,引發(fā)民事糾紛,客觀上需要人工智能立法確定承擔(dān)民事責(zé)任的邊界。例如,隨著人工智能的普及,人工智能創(chuàng)作物的知識(shí)產(chǎn)權(quán)歸屬問題如何確定,目前已有相關(guān)案例。傳統(tǒng)著作權(quán)法理論認(rèn)為,作品是作者人格的體現(xiàn),只有自然人才能創(chuàng)作作品。但動(dòng)物和機(jī)器,無論何時(shí)都不能成為作者,即使其創(chuàng)作物具備了作品的特征。而現(xiàn)在,人工智能創(chuàng)作物向這一理論發(fā)起了挑戰(zhàn)。此外,自動(dòng)駕駛汽車的安全性問題已經(jīng)引起了廣泛關(guān)注,從自動(dòng)駕駛汽車的生產(chǎn)資質(zhì)、上路許可,到發(fā)生事故后的責(zé)任分擔(dān),當(dāng)前法律均處于空白狀態(tài)。因此,因人工智能汽車自動(dòng)駕駛引發(fā)的交通事故,迫切需要通過立法,為明確責(zé)任、解決糾紛提供有效的法律依據(jù)。
三是因開發(fā)利用人工智能,違反行政管理規(guī)范,需要有關(guān)行政管理機(jī)關(guān)對違法的管理相對人進(jìn)行行政處罰。例如,開發(fā)利用人工智能,在一定情形下需要行政許可,否則就要擔(dān)責(zé)。這些具體的情形就需要以法律法規(guī)的形式作出規(guī)范,這是立法任務(wù)。與此相對應(yīng),對于有關(guān)行政管理機(jī)關(guān)不作為和濫作為的情形,公民、法人和有關(guān)組織可以依法提起行政訴訟,這些也需要依法作出規(guī)范。
四是因開發(fā)利用人工智能,造成嚴(yán)重?fù)p害消費(fèi)者合法權(quán)益和社會(huì)公共利益的情形,應(yīng)當(dāng)依法提起公益訴訟。但由于人工智能的開發(fā)利用對于社會(huì)公共利益的損害,有其新穎性和特殊性,人類應(yīng)對的措施必然有所不同,因而必然也會(huì)對人工智能的立法提出新要求,這同時(shí)也增加了人工智能立法的難度。
為了解決人工智能發(fā)展帶來的新矛盾、新問題,必須未雨綢繆,加快研究人工智能的有關(guān)法律法規(guī)。一是,適時(shí)安排宏觀立法。人工智能的發(fā)展離不開一部反映時(shí)代需求的人工智能法以及配套法規(guī)組成的法律法規(guī)體系。人工智能法總體上屬于行政法的范疇?,F(xiàn)階段正處在人工智能技術(shù)的高速發(fā)展期,因此立法不能過細(xì),但應(yīng)當(dāng)制定必要的原則框架,以保障法律的實(shí)施能落地。
二是明確近期立法工作重點(diǎn)。當(dāng)前,針對人工智能的具體應(yīng)用進(jìn)行專門立法,是較為務(wù)實(shí)的立法思路。建議國務(wù)院或有關(guān)部門優(yōu)先對自動(dòng)駕駛、圖像識(shí)別、無人機(jī)管控等相對成熟的技術(shù)應(yīng)用行為制定法規(guī)或規(guī)章,規(guī)范社會(huì)管理秩序。
三是做好司法解釋。對于立法工作一時(shí)跟不上,而實(shí)際案件又不斷涌現(xiàn)的人工智能應(yīng)用領(lǐng)域,建議通過司法解釋的辦法化解糾紛,并為立法工作贏得時(shí)間和經(jīng)驗(yàn)。如在民事案件處理中,建議著力解決好人工智能生成內(nèi)容的權(quán)利歸屬、人工智能損害后果的責(zé)任分擔(dān)問題;在刑事案件中,建議著力解決人工智能相關(guān)犯罪行為的定性和量刑幅度;在知產(chǎn)案件中,建議著力解決對算法、芯片等核心技術(shù)仿冒、侵權(quán)行為的責(zé)任歸屬和賠償標(biāo)準(zhǔn)等問題。
弱人工智能時(shí)代立法尚無基礎(chǔ)和條件
□ 高紹林 張宜云
隨著互聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算的發(fā)展,特別是隨著5G技術(shù)落地應(yīng)用,人工智能必將以前所未有的速度向前發(fā)展。人工智能的發(fā)展,一方面可以造福人類,單就法律領(lǐng)域來講,人工智能給法律工作賦予了新的動(dòng)能,立法、執(zhí)法、司法、普法、法律服務(wù)都可以借助人工智能技術(shù)極大提高工作效率與質(zhì)量。另一方面,人工智能也帶來許多新的挑戰(zhàn),如果長期缺乏規(guī)制,可能會(huì)產(chǎn)生一定的災(zāi)難性后果。比如,無人駕駛、無人機(jī)技術(shù)可能會(huì)給殺人、走私、販毒等犯罪行為提供便利;人工智能程序中的漏洞,可能被惡意利用,產(chǎn)生嚴(yán)重社會(huì)安全風(fēng)險(xiǎn);人工智能的設(shè)計(jì)者、應(yīng)用者可能突破倫理底線設(shè)計(jì)、使用人工智能以及數(shù)據(jù)泄露、算法歧視等。因此,有必要對人工智能發(fā)展進(jìn)行立法規(guī)制,引導(dǎo)、規(guī)范人工智能健康發(fā)展。
在人工智能的立法規(guī)制上,有觀點(diǎn)認(rèn)為,亟須出臺(tái)專門的人工智能法,筆者認(rèn)為,當(dāng)前人工智能總體上還處于弱人工智能時(shí)代,主要集中于語音識(shí)別、自動(dòng)翻譯、語音合成、圖像識(shí)別、自動(dòng)駕駛、工業(yè)機(jī)器人、聊天機(jī)器人等具體領(lǐng)域,短期內(nèi)不可能出現(xiàn)“通用人工智能”。因此,尚不具備制定完整人工智能法律制度的實(shí)踐基礎(chǔ)和客觀條件。
馬克思在《論離婚法草案》中有一句名言:“立法者應(yīng)該把自己看作一個(gè)自然科學(xué)家,他不是在制造法律,不是在發(fā)明法律,而僅僅是在表述法律,他把精神關(guān)系的內(nèi)在規(guī)律表現(xiàn)在有意識(shí)的現(xiàn)行法律之中。如果,一個(gè)立法者用自己的臆想來代替事情的本質(zhì),那么我們就應(yīng)該責(zé)備他極端任性。”對于一個(gè)新興領(lǐng)域進(jìn)行專門立法規(guī)制,一般需要三個(gè)條件:一是社會(huì)產(chǎn)生了對這一新興領(lǐng)域進(jìn)行立法規(guī)制的現(xiàn)實(shí)需求;二是在現(xiàn)行法律法規(guī)框架內(nèi)無法實(shí)現(xiàn)對其進(jìn)行必要調(diào)整;三是立法者能夠認(rèn)清和把握其內(nèi)在的客觀規(guī)律。
從人工智能現(xiàn)階段發(fā)展水平來看,無論是數(shù)據(jù)、算法、算力,還是應(yīng)用場景,基本上還處于探索性、試驗(yàn)性階段,我們還缺乏對其基本規(guī)律的研究與認(rèn)識(shí)。在這種情況下,制定一部完整的人工智能法是不現(xiàn)實(shí)的。最現(xiàn)實(shí)的選擇是堅(jiān)持趨利避害的底線思維,根據(jù)人工智能發(fā)展的現(xiàn)實(shí)需要,對現(xiàn)行法律制度進(jìn)行必要的修改、補(bǔ)充。
而為了保障和促進(jìn)人工智能健康發(fā)展,對人工智能進(jìn)行立法規(guī)制應(yīng)堅(jiān)持以下原則:一是以人為本原則。確保人工智能發(fā)展能夠增加人類福祉,保障人的尊嚴(yán)、自由和人身財(cái)產(chǎn)安全。二是發(fā)展與安全平衡原則。處理好促進(jìn)人工智能發(fā)展與保證社會(huì)安全之間的關(guān)系,二者不可偏廢。三是政府干預(yù)適度原則。人工智能開發(fā)與應(yīng)用只要不與法律法規(guī)相抵觸,不危害公序良俗,政府就不要過度干預(yù)。四是倫理底線控制原則。明確人工智能在安全、隱私、公平、公正等方面的倫理底線。五是風(fēng)險(xiǎn)容忍度原則。人工智能發(fā)展具有很強(qiáng)的探索性,即使是相對成熟的應(yīng)用,也還有相當(dāng)?shù)牟淮_定性,要適當(dāng)容忍其試錯(cuò)。六是多層級(jí)立法共進(jìn)互補(bǔ)原則。在中國特色社會(huì)主義法律體系框架內(nèi),發(fā)揮統(tǒng)一、多層次的立法體制優(yōu)勢,從法律、行政法規(guī)、地方性法規(guī)等多個(gè)層次對人工智能進(jìn)行立法規(guī)制。
從人工智能發(fā)展態(tài)勢看,當(dāng)前需要著手進(jìn)行的立法項(xiàng)目,首先是全國人大及其常委會(huì)立法,包括在編纂民法典中,明確人工智能相關(guān)的民事基礎(chǔ)制度;制定數(shù)據(jù)安全法,對人工智能時(shí)代的數(shù)據(jù)安全和信息保護(hù)作出規(guī)定;制定電信法,為人工智能發(fā)展提供良好的公共網(wǎng)絡(luò)基礎(chǔ)設(shè)施環(huán)境;修改道路交通安全法,對無人駕駛汽車作出規(guī)定;修改著作權(quán)法、專利法,對人工智能知識(shí)產(chǎn)權(quán)相關(guān)問題作出規(guī)定;適時(shí)出臺(tái)刑法修正案,對人工智能涉及的犯罪作出規(guī)定。
其次是國務(wù)院制定行政法規(guī),包括制定網(wǎng)絡(luò)安全法實(shí)施條例、機(jī)器人使用安全管理?xiàng)l例、人工智能基礎(chǔ)設(shè)施管理?xiàng)l例、智能網(wǎng)聯(lián)汽車管理?xiàng)l例、人工智能輔助醫(yī)療診斷與治療管理?xiàng)l例、修改計(jì)算機(jī)軟件保護(hù)條例等。
同時(shí),人工智能產(chǎn)業(yè)發(fā)展的優(yōu)勢地區(qū)也可以加強(qiáng)地方立法,重點(diǎn)是制定促進(jìn)人工智能產(chǎn)業(yè)發(fā)展的地方性法規(guī),包括鼓勵(lì)人工智能產(chǎn)業(yè)發(fā)展,促進(jìn)人工智能在政務(wù)、財(cái)稅、制造等領(lǐng)域應(yīng)用,人工智能涉及的消費(fèi)者權(quán)益保護(hù)、人力資源與社會(huì)保障等。
總之,隨著人工智能快速發(fā)展,需要更多的法學(xué)家關(guān)注其法律問題,盡快構(gòu)建人工智能倫理體系以及相關(guān)法學(xué)理論體系,為人工智能法律規(guī)制提供理論基礎(chǔ)。同時(shí),立法機(jī)關(guān)要更多關(guān)注人工智能的立法規(guī)制問題,發(fā)揮立法的引領(lǐng)與推動(dòng)作用,盡早將人工智能立法規(guī)制的相關(guān)立法項(xiàng)目提上議事日程,為人工智能的健康發(fā)展創(chuàng)造良好的法治環(huán)境。
人工智能生成物可否構(gòu)成作品
□ 萬 勇
2017年5月,微軟“小冰”創(chuàng)作的詩集《陽光失了玻璃窗》正式出版、谷歌開發(fā)的人工智能DeepDream可以生成繪畫,且所生成的畫作已經(jīng)成功拍賣……從外觀形式來看,由人工智能創(chuàng)作的成果與人類創(chuàng)作的成果沒有任何區(qū)別,且很難被察覺并非由人類所作??梢哉f,與以往技術(shù)創(chuàng)新相比,人工智能技術(shù)對著作權(quán)法提出的挑戰(zhàn)是最根本,也是最全面的。
今年4月,北京互聯(lián)網(wǎng)法院對國內(nèi)首例人工智能作品爭議案作出了一審判決,為理論探討提供了新鮮的實(shí)踐素材。對于主體資格問題,法院認(rèn)為,盡管隨著科學(xué)技術(shù)的發(fā)展,人工智能生成物在內(nèi)容、形態(tài),甚至表達(dá)方式上日趨接近自然人,但根據(jù)現(xiàn)實(shí)的科技及產(chǎn)業(yè)發(fā)展水平,尚不宜在法律主體方面予以突破。不過,法院也認(rèn)為,應(yīng)給予人工智能生成物以一定的法律保護(hù),因?yàn)槠渚邆鋫鞑r(jià)值。
筆者認(rèn)為,對于人工智能生成物的著作權(quán)定性這一極具爭議的問題,作為社會(huì)穩(wěn)定器的法院采取相對保守、平衡的立場,是合適的。需要指出的是,如果人工智能生成物不被承認(rèn)是作品,相關(guān)主體出于利益最大化的考量,很有可能會(huì)隱瞞相關(guān)成果是人工智能創(chuàng)作的事實(shí)。這樣導(dǎo)致的后果其實(shí)就是迫使人們“為惡”,即通過弄虛作假來規(guī)避法律,因?yàn)閺耐庥^上無法識(shí)別,人工智能生成物最終仍然會(huì)獲得著作權(quán)法的保護(hù)。與其堵還不如疏,這種理念也應(yīng)適用于人工智能生成物的法律規(guī)制領(lǐng)域。
目前,有的國家已積累了一些經(jīng)驗(yàn)。如英國《1988年版權(quán)、外觀設(shè)計(jì)和專利法案》規(guī)定,對于計(jì)算機(jī)生成的文字、戲劇、音樂或藝術(shù)作品而言,作者應(yīng)是對該作品的創(chuàng)作進(jìn)行必要安排的人。由于這一條款具有一定的開放性,也賦予了法院較大的自由裁量權(quán),對有效保護(hù)人工智能生成物的著作權(quán)發(fā)揮了積極作用,我國立法也可予以借鑒。
算法治理應(yīng)包容審慎敏捷靈活
□ 曹建峰
隨著人工智能技術(shù)的不斷發(fā)展,數(shù)據(jù)和算法的結(jié)合開始對我們的生產(chǎn)生活產(chǎn)生廣泛影響,從信息的個(gè)性化傳播到金融、雇傭、司法等領(lǐng)域的自動(dòng)化決策再到自動(dòng)駕駛汽車等等。
但算法的應(yīng)用在給人們生活帶來便利的同時(shí),也帶來一系列法律、倫理與社會(huì)問題,諸如算法歧視、責(zé)任、安全、濫用、深度偽造等。國際社會(huì)開始呼吁建立算法治理,實(shí)現(xiàn)算法透明與問責(zé)。對此需要考慮以下幾個(gè)方面的問題:
第一,算法實(shí)際上是一個(gè)非常廣義的概念,所謂的算法治理是針對機(jī)器學(xué)習(xí)等人工智能算法在特定領(lǐng)域的應(yīng)用,所以明確概念是算法治理的起點(diǎn)。
第二,算法治理需要包容審慎、敏捷靈活的思路,技術(shù)和商業(yè)模式快速迭代,草率立法不可能期待會(huì)產(chǎn)生正面效果,而且成文或?qū)iT立法恐難跟上技術(shù)發(fā)展步伐,所以應(yīng)避免嚴(yán)格、細(xì)致的法律要求,而是采取事后監(jiān)管或者通過出臺(tái)標(biāo)準(zhǔn)、行業(yè)公約、倫理框架、最佳實(shí)踐、技術(shù)指南等方式調(diào)整算法應(yīng)用,支持行業(yè)自律。
第三,算法透明不是對算法的每一個(gè)步驟、技術(shù)原理和實(shí)現(xiàn)細(xì)節(jié)進(jìn)行解釋,簡單公開算法系統(tǒng)的源代碼也不能提供有效的透明度,反倒可能威脅數(shù)據(jù)隱私或影響算法安全應(yīng)用。相反,在算法系統(tǒng)的行為和決策上實(shí)現(xiàn)有效透明將更可取,也能提供顯著的效益。如歐盟《一般數(shù)據(jù)保護(hù)條例》(GDPR)并沒有要求對特定自動(dòng)化決策進(jìn)行解釋,而僅要求提供關(guān)于內(nèi)在邏輯的有意義的信息,并解釋自動(dòng)化決策的重要性和預(yù)想的后果。
第四,算法治理需要分級(jí)分類的監(jiān)管機(jī)制,例如歐盟、加拿大等呼吁針對政府和社會(huì)公共部門使用的算法系統(tǒng)進(jìn)行嚴(yán)監(jiān)管,包括建立“算法影響評(píng)估”機(jī)制;對于商業(yè)領(lǐng)域的算法系統(tǒng)則更多采取事后追究法律責(zé)任的機(jī)制,以免過度監(jiān)管影響技術(shù)創(chuàng)新。
因此,我們看到社會(huì)各界在以倫理的方式推動(dòng)算法治理。國際層面,歐盟、OECD、G20等都提出了人工智能原則,力爭在國際上達(dá)成共識(shí);行業(yè)層面,谷歌、微軟、騰訊等都提出了各自的人工智能倫理原則,積極承擔(dān)倫理責(zé)任,踐行科技向善,避免算法被不當(dāng)利用或?yàn)E用。展望未來,我們還需要通過廣泛社會(huì)參與和跨學(xué)科研究評(píng)估的方式來實(shí)現(xiàn)對算法應(yīng)用的良好治理。
規(guī)制自動(dòng)駕駛的天花板應(yīng)予以抬升
□ 鄧煜坤
對于自動(dòng)駕駛這一新生事物,立法要密切關(guān)注跟蹤其發(fā)展動(dòng)態(tài),然后再適當(dāng)立法,且早期立法應(yīng)以鼓勵(lì)為主。就目前中國自動(dòng)駕駛發(fā)展?fàn)顩r而言,一些城市已出臺(tái)相關(guān)法規(guī)政策,允許自動(dòng)駕駛汽車可在城市低速道路上進(jìn)行路測,但仍有很多規(guī)定嚴(yán)重妨礙中國自動(dòng)駕駛發(fā)展,如自動(dòng)駕駛汽車不能進(jìn)入高速公路測試,為此很多中國企業(yè)只能舍近求遠(yuǎn)前往美國進(jìn)行高速路測,因?yàn)槊绹邢嚓P(guān)法律支持。而如果不能在多種場景、更為復(fù)雜的路面上進(jìn)行測試,那么自動(dòng)駕駛技術(shù)和相關(guān)算法模型就難以快速成熟起來。作為從業(yè)者,希望現(xiàn)在的法律規(guī)制天花板往上抬一抬。當(dāng)然在此過程中肯定會(huì)出現(xiàn)一些問題,但關(guān)鍵在于如何界定各方責(zé)任,促使企業(yè)將出現(xiàn)問題的幾率降低,而不是一味限制。如果過度強(qiáng)調(diào)絕對不能出問題,那也就意味著自動(dòng)駕駛絕對發(fā)展不起來。
在通過法律政策推進(jìn)自動(dòng)駕駛技術(shù)發(fā)展的同時(shí),也要密切關(guān)注行業(yè)的發(fā)展,如果發(fā)現(xiàn)可能會(huì)給人類帶來極端破壞的情形,也要盡快制定法律法規(guī)進(jìn)行規(guī)制。以其他行業(yè)為例,如2018年被爆出的基因編輯嬰兒事件,就是一起非??膳碌陌咐?對于技術(shù)革新帶來的這種極其負(fù)面的事件,就應(yīng)當(dāng)盡快進(jìn)行立法明確法律紅線。不過就目前自動(dòng)駕駛領(lǐng)域的人工智能技術(shù)而言,尚沒有發(fā)現(xiàn)會(huì)給人類帶來潛在巨大危害的風(fēng)險(xiǎn)。(文字整理:本報(bào)記者馬樹娟)