
1942年,科幻小說(shuō)家艾薩克·阿西莫夫在其科幻小說(shuō)中首次提出機(jī)器人法則,又稱機(jī)器人三定律——第一定律:機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不顧;第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。
不同于舊日的科學(xué)幻想,如今人工智能技術(shù)已開(kāi)始萌芽,并且迅速發(fā)展。作者將本書(shū)命名為《機(jī)器人現(xiàn)代法則》,一定程度上也凸顯了對(duì)人工智能這一“現(xiàn)代”課題的現(xiàn)實(shí)關(guān)切。作者將深思熟慮和真知灼見(jiàn)注于筆端,對(duì)人工智能發(fā)展的意義和應(yīng)當(dāng)采取的應(yīng)對(duì)計(jì)劃進(jìn)行了深入分析,為人們?nèi)绾卧谒枷肷虾蜕鐣?huì)結(jié)構(gòu)上做好準(zhǔn)備提供了啟示。
能否“成年”:
人工智能的獨(dú)特性和立法需求
早在人工智能一詞被提出之前,神話傳說(shuō)中已有用無(wú)生命材料創(chuàng)造智慧生命的故事,可見(jiàn)人類關(guān)于人工智能的想象從未止歇。但即使在人工智能概念大火的今天,對(duì)于什么是人工智能,仍然眾說(shuō)紛紜,未能達(dá)成一致的通用定義。作者列舉了大量人工智能的應(yīng)用場(chǎng)景,如智能手機(jī)上安裝的各種應(yīng)用程序,包括基于收聽(tīng)歷史的音樂(lè)庫(kù)推薦、用于消息傳遞的預(yù)測(cè)文本建議,還有虛擬個(gè)人助理、自動(dòng)駕駛汽車、可創(chuàng)作音樂(lè)或半抽象藝術(shù)作品的程序等各類技術(shù),以說(shuō)明其獨(dú)特性。在此基礎(chǔ)上,作者對(duì)人工智能作出適用于法律解釋的定義:人工智能是非自然實(shí)體通過(guò)評(píng)估作出選擇的能力。簡(jiǎn)而言之,就是能夠自主決策的能力。
僅從目前看來(lái),接近人類能力水平的廣義人工智能尚不存在,但毫無(wú)疑問(wèn),當(dāng)人工智能達(dá)到足以與人類智能相媲美的奇點(diǎn),甚至超越人類智能,世界將發(fā)生翻天覆地的變化?;趯?duì)人工智能可能成長(zhǎng)為超級(jí)智能體的預(yù)想,三種聲音涌現(xiàn)了出來(lái)。
樂(lè)觀主義者強(qiáng)調(diào)好處并淡化任何危險(xiǎn),悲觀主義者認(rèn)為發(fā)展人工智能是冒著“召喚惡魔”的風(fēng)險(xiǎn),實(shí)用主義者承認(rèn)其好處和潛在災(zāi)難,主張謹(jǐn)慎發(fā)展人工智能并控制風(fēng)險(xiǎn)。斯蒂芬·霍金用一句話總結(jié)了人們的矛盾心理:人工智能可能是發(fā)生在人類身上最好同時(shí)也是最糟糕的事情。
誰(shuí)也無(wú)法預(yù)測(cè)超級(jí)智能何時(shí)誕生,不僅如此,人工智能帶來(lái)改變的確切性和時(shí)間,在很大程度上都還是一種推測(cè)。在人類社會(huì)中,到了一定年齡或智力達(dá)到一定水平,人類將作為獨(dú)立的個(gè)體對(duì)自己的行為負(fù)責(zé)。而人工智能成長(zhǎng)到一定程度,是否也應(yīng)到達(dá)法律上的“成年年齡”,承擔(dān)相應(yīng)的責(zé)任和權(quán)利?這一前所未有的法律現(xiàn)象,影響著從今時(shí)今日直至奇點(diǎn)到來(lái)以后,人類與人工智能如何互相適應(yīng)和共存的重大命題。
作者提出,當(dāng)法律是一種無(wú)聲的背景時(shí),它才是最有效的。我們需要人工智能領(lǐng)域的法律規(guī)則,以讓各方在公平和可預(yù)期的氛圍中相互交往,更好地?cái)y手走向未來(lái),因?yàn)橹挥屑霸缰?,才能盡可能以連貫、穩(wěn)定和合法的方式,為解決人工智能帶來(lái)的一系列問(wèn)題做好準(zhǔn)備。
應(yīng)否“成人”:
人工智能的責(zé)任、權(quán)利和法律人格
幾千年來(lái),法律制度以人類為主體,也以人類社會(huì)的共同福祉為目的,保障著社會(huì)秩序、民眾安寧和商業(yè)繁榮。人工智能的出現(xiàn)提出了新問(wèn)題,即如何將目前以人類決策作為前提條件的法律和倫理,適用于能夠自主決策的人工智能,如何根據(jù)需要作出一些制度設(shè)計(jì)上的優(yōu)化,以在人工智能造成損害時(shí),依據(jù)法律機(jī)制確定由誰(shuí)負(fù)責(zé)?作者在書(shū)中以相關(guān)法則和典型案例對(duì)此逐一進(jìn)行了分析探討。
首先,在既有的法律框架內(nèi),可否通過(guò)調(diào)整某些責(zé)任規(guī)則,來(lái)包容人工智能產(chǎn)生的問(wèn)題?作者在書(shū)中逐一分析了過(guò)失責(zé)任、產(chǎn)品責(zé)任、替代責(zé)任,以及在無(wú)過(guò)錯(cuò)事故賠償計(jì)劃、合同和保險(xiǎn)等機(jī)制中,可適用于人工智能的法條和案例,并深入剖析了采用不同責(zé)任體系的優(yōu)缺點(diǎn)。在此基礎(chǔ)上,作者得出結(jié)論,現(xiàn)行法律可以而且將在短期內(nèi)繼續(xù)以上述方式確定人工智能的責(zé)任,但是我們不應(yīng)止步于此,還可以用更激進(jìn)的方式調(diào)整人與人工智能的關(guān)系。
其次,更激進(jìn)的方式涉及一個(gè)問(wèn)題:可否賦予人工智能權(quán)利?這個(gè)問(wèn)題可能難以被人們理解和接受,但事實(shí)上,不僅類似的動(dòng)物權(quán)利,連人權(quán)本身,也是經(jīng)歷了漫長(zhǎng)的過(guò)程才成為社會(huì)共識(shí),我們不應(yīng)預(yù)設(shè)立場(chǎng),而應(yīng)該思考賦予機(jī)器人權(quán)利的理由是否充分。作者旁征博引,歸納了痛苦論、同情論、價(jià)值與人性論、后人文主義論等四個(gè)方面論點(diǎn)。無(wú)論是基于機(jī)器人能感知痛苦的想法,基于廣泛的同理心,基于人工智能與人類相互尊重的價(jià)值利益,還是基于人與人工智能未來(lái)可能的結(jié)合,對(duì)賦予人工智能權(quán)利,作者總體持肯定態(tài)度。
最后,如果認(rèn)可人工智能的道德權(quán)利,我們是否應(yīng)該像賦予公司法人資格一樣,賦予人工智能法律人格?對(duì)此,作者認(rèn)為,這樣做可以維護(hù)法律體系的完整性,可以在出現(xiàn)真正的自主機(jī)器人后填補(bǔ)責(zé)任鴻溝,可以鼓勵(lì)創(chuàng)新和促進(jìn)經(jīng)濟(jì)增長(zhǎng),可以讓知識(shí)產(chǎn)權(quán)在人機(jī)之間進(jìn)行共享,可以為人工智能提供遵守某些規(guī)則的動(dòng)機(jī)。
但是,賦予法律人格并不意味著將人工智能視為人類,也不能讓人類放棄對(duì)人工智能的所有責(zé)任。例如,對(duì)有人試圖利用人工智能的獨(dú)立人格作惡,并逃避懲罰的情形,可以仿效公司法中“揭開(kāi)公司面紗”的制度,直接將責(zé)任歸咎于肇事之人。
可否“成全”:
人工智能的監(jiān)管和控制
在人工智能產(chǎn)業(yè)蓬勃發(fā)展的今天,有些人工智能受到規(guī)制,有的并未受到約束。若要為人工智能設(shè)計(jì)和實(shí)施量身定制的新法律,需要解決的首要問(wèn)題就是,規(guī)則由誰(shuí)來(lái)定?
鑒于人工智能是一項(xiàng)日益強(qiáng)大且具有潛在危險(xiǎn)的技術(shù),作者建議應(yīng)當(dāng)設(shè)立全球性的監(jiān)管機(jī)構(gòu),進(jìn)行跨文化跨邊界的合作,以負(fù)責(zé)任的方式發(fā)展人工智能。通過(guò)制定適用于任何地區(qū)的統(tǒng)一標(biāo)準(zhǔn)和原則,使人工智能的發(fā)展在一個(gè)有效和可預(yù)測(cè)的環(huán)境中運(yùn)行,從而使所有國(guó)家和地區(qū)都能從中受益。
國(guó)際組織有一系列在尊重國(guó)家主權(quán)的同時(shí)維持監(jiān)管效力的措施,包括條例、指令、決定、建議、指南等,也可以通過(guò)采用示范法、建立國(guó)際人工智能法律學(xué)院,來(lái)促進(jìn)有關(guān)法則知識(shí)和技能的發(fā)展與傳播。以國(guó)際經(jīng)合組織為例,其《跨國(guó)企業(yè)準(zhǔn)則》作為各國(guó)政府向跨國(guó)企業(yè)提出的建議,僅是一系列自愿性的原則和標(biāo)準(zhǔn),缺乏具體的懲罰措施,然而點(diǎn)名羞辱以及促成各方之間的對(duì)話仍在很大程度上取得了成效。這啟示我們自利利他主義及非約束性的規(guī)則與規(guī)范體系,能夠漸進(jìn)性地形塑有關(guān)行為。在各國(guó)尚未就如何管理人工智能問(wèn)題達(dá)成明確立場(chǎng)的當(dāng)下,我們?nèi)杂袡C(jī)會(huì)來(lái)創(chuàng)建新的法律基礎(chǔ)和共同語(yǔ)言,國(guó)家、地區(qū)和超國(guó)家組織都應(yīng)當(dāng)在制定明確有效的人工智能監(jiān)管政策方面發(fā)揮協(xié)調(diào)作用。
在具體的規(guī)則中,需要重點(diǎn)考量的主體是人工智能的創(chuàng)建者,即設(shè)計(jì)、規(guī)劃、操作人工智能的人和人工智能本身。對(duì)人工智能的創(chuàng)建者,可以用機(jī)器人倫理路線圖、人工智能設(shè)計(jì)指南等作為規(guī)制方案,一些較為常見(jiàn)的主題包括:明確誰(shuí)對(duì)人工智能造成的損害承擔(dān)責(zé)任,保證設(shè)計(jì)的安全性、透明性,要求人工智能與人類價(jià)值觀保持一致等。對(duì)人工智能,需要教給他們有效的價(jià)值觀,這就要求在創(chuàng)建和矯正人工智能時(shí),能更好地理解和應(yīng)用一系列規(guī)范,包括說(shuō)明其是否具有人工智能性能的識(shí)別法則、向人類闡明其推理的解釋法則、改進(jìn)不公正的輸入和過(guò)程的偏見(jiàn)法則、規(guī)定可以做什么和不能做什么的限制法則和關(guān)閉人工智能的死亡開(kāi)關(guān)設(shè)置等。
縱覽全書(shū),關(guān)于人工智能的理論和實(shí)踐問(wèn)題,作者明智地提出了一系列選項(xiàng)并進(jìn)行了利弊分析,但并不認(rèn)為有任何快捷簡(jiǎn)單的答案。為人工智能的設(shè)計(jì)和使用設(shè)定并實(shí)施法律和倫理約束,需要政府、工業(yè)界、學(xué)術(shù)界、利益相關(guān)方和公民都參與其中,共同應(yīng)對(duì)。所有這些群體都應(yīng)共同致力于解決人工智能引發(fā)的各類問(wèn)題,同時(shí)也使自己受到監(jiān)管,從而創(chuàng)造一種負(fù)責(zé)任的人工智能應(yīng)用文化。為機(jī)器人制定規(guī)則無(wú)疑是一種挑戰(zhàn),但作者用貫穿全書(shū)的現(xiàn)實(shí)討論發(fā)出呼吁,只要我們?cè)敢馀Γ鉀Q問(wèn)題的工具就在我們手上。