目前,以數(shù)據(jù)驅(qū)動(dòng)的人工智能已越發(fā)深度應(yīng)用于我們的生產(chǎn)生活,并廣泛影響著人類社會(huì)的各個(gè)方面,產(chǎn)生了一系列實(shí)際后果。對(duì)這些后果的關(guān)注,一直都是人工智能倫理反思的題中之義。比如,批判性考察人工智能應(yīng)用中的數(shù)據(jù)獲取和數(shù)據(jù)管理,技術(shù)的誤用或?yàn)E用,技術(shù)的設(shè)計(jì)、開發(fā)和使用過程中的社會(huì)權(quán)力動(dòng)態(tài)等。我們要推動(dòng)人工智能的“技術(shù)向善”,避免其對(duì)社會(huì)和個(gè)人造成嚴(yán)重傷害。但已有研究大都忽視了人工智能對(duì)人類的認(rèn)識(shí)論活動(dòng)造成的傷害——威脅到人類作為解釋者、認(rèn)知者和證據(jù)來源的尊嚴(yán)。本文將借助弗里克(Miranda Fricker)的“認(rèn)識(shí)論不公正”(Epistemic Injustice)概念及其分類,揭示人工智能何以在認(rèn)識(shí)論上給我們帶來解釋學(xué)不公正和證詞不公正。
概念考察與類型分析
作為認(rèn)識(shí)論領(lǐng)域一個(gè)相對(duì)較新的概念,“認(rèn)識(shí)論不公正”由弗里克在《認(rèn)識(shí)論不公正:認(rèn)知的權(quán)力和倫理》一書中首次提出。根據(jù)弗里克的定義,“認(rèn)識(shí)論不公正”是“以知識(shí)者的身份對(duì)某人犯下的錯(cuò)誤”。該術(shù)語(yǔ)揭示了一種獨(dú)特現(xiàn)象——由于社會(huì)偏見或刻板印象等原因?qū)е履橙说恼J(rèn)知論地位被不公正地削弱。更寬泛地講,是指某類群體或個(gè)人的理性能力受到社會(huì)或他人的不公正對(duì)待。“認(rèn)識(shí)論不公正”是一種歧視性的不公正,是因歧視性因素使得某人被排擠在認(rèn)知活動(dòng)之外或處于認(rèn)識(shí)論的不利地位。歧視性的不公正不同于分配性的不公正,雖然對(duì)后者的關(guān)注同樣重要,但弗里克認(rèn)為“它并沒有明顯的認(rèn)識(shí)論上的問題”,因?yàn)槟切┍欢ㄐ詾檎J(rèn)識(shí)論商品的東西在很大程度上是偶然的。所以,真正具有認(rèn)識(shí)論意義的不公正應(yīng)當(dāng)是歧視性的不公正。
弗里克明確將“認(rèn)識(shí)論不公正”區(qū)分為解釋學(xué)不公正(hermeneutical injustice)和證詞不公正(testimonial injustice)兩種類型。當(dāng)“集體解釋資源的差距使某人在理解其社會(huì)經(jīng)歷時(shí)處于劣勢(shì)”時(shí),就會(huì)發(fā)生解釋學(xué)不公正。當(dāng)沒有“集體解釋學(xué)資源”,即缺乏典型的語(yǔ)言類型和概念資源來談?wù)摵屠斫饽承┙?jīng)歷時(shí),遭受此經(jīng)歷的人將被剝奪談?wù)摵屠斫庾陨斫?jīng)歷的機(jī)會(huì)。證詞不公正則是指“因偏見導(dǎo)致聽眾對(duì)說話者的證詞可信度的貶低”,因而不再被當(dāng)作可靠證據(jù)或證詞的來源。這些偏見往往是系統(tǒng)性的,滲透在整個(gè)社會(huì)之中,證詞不公正便是其在認(rèn)識(shí)論上的反映。以上理論資源,為揭示人工智能帶來的“認(rèn)識(shí)論不公正”問題提供了有益的起點(diǎn)。
解釋學(xué)不公正
人工智能的認(rèn)知非透明性特征,將引發(fā)解釋學(xué)不公正。認(rèn)知非透明性是漢弗萊斯(Paul Humphreys)提出的概念,用于表征某些計(jì)算系統(tǒng)的內(nèi)部過程和屬性的不可訪問性。雖然漢弗萊斯專注于計(jì)算模型和模擬,但該概念同樣適用于人工智能。由于運(yùn)用了大量復(fù)雜的程序和方法(如機(jī)器學(xué)習(xí)、深度神經(jīng)網(wǎng)絡(luò)、大數(shù)據(jù)分析等),人工智能具有明顯的認(rèn)知非透明性特征。

人工智能的認(rèn)知非透明性特征主要源于兩個(gè)方面。一方面,一些技術(shù)本身是不透明的。比如,深度學(xué)習(xí)和大數(shù)據(jù)技術(shù)具有典型的不完全可理解性和不可訪問性,使其結(jié)果難以被追溯或至多只能在事后獲得部分解釋。另一方面,一些社會(huì)性因素也帶來了認(rèn)知非透明性。比如,人工智能中的算法和數(shù)據(jù)多為大型科技公司掌握甚至壟斷,為保持市場(chǎng)競(jìng)爭(zhēng)和技術(shù)優(yōu)勢(shì),這些算法和數(shù)據(jù)通常會(huì)被視為商業(yè)機(jī)密而不被公開。
人工智能可以被視為一個(gè)復(fù)雜的非透明性系統(tǒng),對(duì)其內(nèi)部過程和輸出結(jié)果的理解遠(yuǎn)遠(yuǎn)超出人類個(gè)體的認(rèn)知資源和能力。并且,人們對(duì)其經(jīng)驗(yàn)有效性也缺乏認(rèn)知控制。這會(huì)導(dǎo)致人們(至少是非技術(shù)專家)在質(zhì)疑其結(jié)果或理解其操作方面存在不少困難。尤其是當(dāng)人工智能產(chǎn)生負(fù)面影響時(shí),受影響群體明顯缺乏適當(dāng)?shù)母拍钯Y源來表達(dá)、概括和理解其所經(jīng)歷的傷害,由此將導(dǎo)致解釋學(xué)不公正的發(fā)生。而當(dāng)人工智能被應(yīng)用于決策環(huán)境中時(shí),其帶來的解釋學(xué)不公正將變得更加突出。
人工智能正在深刻改變?nèi)藗兊臎Q策過程和環(huán)境,不少商業(yè)公司和政府的決策都開始有人工智能的參與。比如,一些科技公司會(huì)使用人工智能輔助招聘評(píng)估系統(tǒng)來篩選應(yīng)聘者的簡(jiǎn)歷。由于人工智能的認(rèn)知非透明性特征,有可能導(dǎo)致應(yīng)聘者難以理解公司的評(píng)估方式和被拒絕的明確理由。同時(shí),人工智能也被廣泛應(yīng)用于商業(yè)借貸領(lǐng)域,通過對(duì)申請(qǐng)人進(jìn)行信譽(yù)評(píng)估來決定是否放貸及貸款額度。這時(shí),借貸者往往無法知道銀行機(jī)構(gòu)是根據(jù)哪些具體指標(biāo)來評(píng)估其信譽(yù)等級(jí)并作出決策的。所以,人工智能參與決策的受影響者,或缺乏足夠的資源來理解自身遭遇的經(jīng)歷,進(jìn)而失去反駁、申訴甚至追責(zé)的權(quán)利。此外,人工智能參與的決策還可能包含或隱藏著一些政治目的或經(jīng)濟(jì)利益,但由于其“黑箱式”運(yùn)行,會(huì)導(dǎo)致使用者知之甚少,甚至有時(shí)連專家也無法訪問。這時(shí),使用者明顯處于一種認(rèn)識(shí)論上的不利地位,甚至受到超出認(rèn)識(shí)論范圍的傷害。此類情況應(yīng)予以關(guān)注和重視。
證詞不公正
雖然弗里克的證詞不公正被認(rèn)為是發(fā)生在人類聽眾和人類說話者之間的事情,但在作為聽眾的人類與作為證詞或決策提供者的人工智能之間也存在類似狀況。人工智能或通過貶低人類證詞可信度,而成為一種新的認(rèn)識(shí)論傷害的來源。因?yàn)榛趯?duì)人類自身身份和行為數(shù)據(jù)的大量收集,人工智能或帶來一種新的認(rèn)知權(quán)力不平等:目前人工智能經(jīng)常被認(rèn)為比我們更了解自己,從而削弱了我們對(duì)于自身可信度的支持。比如,在基于人工智能和大數(shù)據(jù)分析的行為預(yù)測(cè)和基于人類證詞的行為預(yù)測(cè)之間,可能有不少人會(huì)傾向于認(rèn)為前者更加可靠。在這種情況下,證詞不公正在整個(gè)社會(huì)層面被結(jié)構(gòu)性建立起來。
在人工智能面前,人類或不公平地貶低自身作為認(rèn)知者的理性能力,認(rèn)為其證詞可信度明顯低于人工智能的判斷。雖然基于數(shù)據(jù)挖掘技術(shù)的人工智能通常被認(rèn)為可以消除部分人類偏見,但它也可能復(fù)刻或強(qiáng)化許多社會(huì)偏見,并在偽客觀性中將其“自然化”。所以,人工智能的“證詞”并不一定就比人類證詞更加可靠,我們需要警惕其中隱藏的偏見并消除對(duì)人類證詞的不公正處置。人工智能所帶來的證詞不公正,將在以下三個(gè)方面對(duì)人類產(chǎn)生不利影響。
其一,在一些重要的認(rèn)識(shí)論活動(dòng)(如知識(shí)生產(chǎn)、證據(jù)提供、理論驗(yàn)證、決策判斷等)中,人類的參與能力和地位將被削弱乃至完全被排擠出整個(gè)認(rèn)識(shí)論活動(dòng)之外。人類或?qū)⒉辉俦灰暈檎J(rèn)識(shí)論活動(dòng)的適當(dāng)參與者。并且,這種重視人工智能決策和忽視人類證詞的實(shí)踐,或使我們錯(cuò)過向人類個(gè)體學(xué)習(xí)的機(jī)會(huì)。
其二,由于人工智能的決策被賦予比人類證詞更多的權(quán)重,人類或逐漸失去作為認(rèn)識(shí)論主體的信心和作為知識(shí)提供者的尊嚴(yán)。人類在繼續(xù)擁有認(rèn)知能力的同時(shí),因其證詞長(zhǎng)期受到質(zhì)疑和忽視,很可能會(huì)失去交流和理解自身經(jīng)歷的動(dòng)力,而最終選擇保持沉默。人類作為理性主體,創(chuàng)造知識(shí)和傳播真理不僅是人類理性能力的體現(xiàn),也是人類尊嚴(yán)和價(jià)值的直接表達(dá)。對(duì)人類認(rèn)識(shí)論主體地位的不公正削弱,將同“以人為本”的人工智能發(fā)展理念背道而馳。
其三,人工智能的數(shù)據(jù)缺失問題,將加劇對(duì)相關(guān)群體的證詞壓迫。缺乏關(guān)于特定社會(huì)事件或現(xiàn)象的數(shù)據(jù),并不意味著該類事件或現(xiàn)象實(shí)際上不存在。人工智能基于過去已有數(shù)據(jù)對(duì)未來作出預(yù)測(cè)性判斷,容易忽視某些未被數(shù)據(jù)化的其他因素或強(qiáng)化已有偏見。未被數(shù)據(jù)化的一些社會(huì)群體的證詞或被排除于人工智能算法系統(tǒng)之外,其利益和立場(chǎng)或因此被忽視。所以,若缺乏對(duì)訓(xùn)練數(shù)據(jù)的人工審查和輸出判斷的道德敏感性評(píng)估,人工智能可能會(huì)成為一種不負(fù)責(zé)任的創(chuàng)新。
總之,揭示人工智能帶來的“認(rèn)識(shí)論不公正”問題,旨在呼吁更多學(xué)者和人工智能專家關(guān)注該問題,積極探索問題的解決之道。雖然這里所討論的直接傷害發(fā)生在認(rèn)識(shí)論上,但這也會(huì)間接造成某些道德和社會(huì)后果。因此,加入認(rèn)識(shí)論視角的人工智能倫理反思,將會(huì)變得更加充實(shí)和全面,進(jìn)而促進(jìn)人工智能更好發(fā)展。