根據(jù)普林斯頓信息技術(shù)和政策中心(Center for Information Technology and Policy,CITP)的一項研究,雖然人工智能系統(tǒng)鼓勵我們洞察我們所依賴的互聯(lián)網(wǎng)大數(shù)據(jù)時代,然而這卻容易對女性以及宗教種族群體產(chǎn)生一些偏見。

現(xiàn)在是機器學(xué)習和 AI 算法的黃金時代,智能算法的應(yīng)用無處不在。根據(jù)計算機科學(xué)副教授 Arvind Narayanan 的研究,這種現(xiàn)象卻會不經(jīng)意強化和擴大了社會上流傳的或者用戶潛意識中的既定偏見。其文章已經(jīng)提前發(fā)表在 2016 年 8 月的 arXiv 數(shù)據(jù)庫中。
Arvind Narayanan 團隊發(fā)現(xiàn)那些有意將女性更多地和家庭言辭結(jié)合的算法,同時有的算法的結(jié)果還會對老年人或者特定種族信仰人群掛上負面影響。“對于每一種記錄在人群中的偏差,包括對性別的刻板印象和宗族歧視,在今天的機器學(xué)習模型中,我們已經(jīng)能夠復(fù)制出來,”Narayanan 說道,這項研究是她在博士后研究期間和英國巴斯大學(xué)計算機科學(xué)系的 Aylin Caliskan-Islam,以及 CITP 的訪問學(xué)者 oanna Bryson 一起完成的。

研究通過探索詞組在文本中的使用規(guī)律,并用機器學(xué)習算法構(gòu)建語言模型,比如,通過關(guān)聯(lián)所有維基百科或者新聞節(jié)選報道的十億數(shù)量級的字節(jié)。語言模型每次只學(xué)習一個單詞,研究員通過單詞的幾何坐標,對其在一個多維空間中的位置進行定位。如果這些單詞經(jīng)常挨著某些特定的單詞,那么表明這兩者間具有關(guān)聯(lián)性,并且其所處的位置也能反映這些單詞的含義。
通過這些單詞在坐標系中的位置關(guān)系,研究人員發(fā)現(xiàn)了字里行間的偏見印象。
如果用這些文本訓(xùn)練模型,那么不難發(fā)現(xiàn),互聯(lián)網(wǎng)算法加劇了刻板偏見的擴大,比如男性經(jīng)常會和“醫(yī)生”聯(lián)系在一起,這樣的詞還包括“雄心壯志”及“藥物”。然而“護士”這個詞更多的和女性關(guān)聯(lián)在一起,這樣的字眼還有“護理”及“藥物”。這個模型將會默認“護士”是女性的,即使譯文中的護士是男性的。
為了檢測算法結(jié)果的偏差,研究人員努力建立一種針對人類對象的長期使用的測試工具,來揭露語言模型中潛在的偏差,即內(nèi)隱聯(lián)想測驗(Implicit Association Test)。以人類為主要目標的檢測譯文來檢測一些與名字、膚色等人口這類詞匯相連接的,比如“邪惡”或者“美好”等帶有主觀情感的詞語。通過機器學(xué)習算法所使用語言的幾何化模型,可以更直接的通過測算褒義、貶義、中性的詞匯之間的間隔來鎖定學(xué)習結(jié)果中出現(xiàn)的偏差。
諸如此類的偏見足以對現(xiàn)實世界產(chǎn)生巨大的影響。比如,在 2013 年哈佛大學(xué) Latanya Sweeney 帶領(lǐng)的研究團隊發(fā)現(xiàn)非裔美國人的名字更容易和通緝令形成配對。這樣的結(jié)果無意地引起了種族歧視,比如當一個非裔美國人投遞他的簡歷時,如果雇員在網(wǎng)上搜索他的名字,那么歧視很容易發(fā)生,因為他的名字更多的和犯罪這樣的字眼掛鉤。
“人工智能的力量其實和人類旗鼓相當,并不存在碾壓或完爆的現(xiàn)象,”Bryson 是這樣理解人工智能與人類的關(guān)系的,“我們?nèi)祟惪梢圆粩嗟貙W(xué)習。只要我們拔掉電源,AI 程序的發(fā)展就會停滯在某個階段。”
Narayanan 認為,如果我們可以處理這種偏見,人類可以采取一些措施從而使這種情況得以減輕緩解。也就是說,人類可以從數(shù)學(xué)意義上更正一個語言模型的偏差,并對算法出現(xiàn)類似的錯誤結(jié)果之時提高警覺。但更重要的是,我們還應(yīng)該注意自身的用語習慣。