?。何覀儍A向于認(rèn)為機(jī)器,尤其是智能機(jī)器,都有那么點(diǎn)高冷且保持中立。我們相信,無人駕駛汽車在生死決定之間不會偏向于行人或者司機(jī)任何一方。同時(shí)我們信任執(zhí)行信用評估的智能系統(tǒng)將忽略真正有影響力的指標(biāo)之外的所有事情,例如收入或FICO分?jǐn)?shù)。而且我們的理解是,學(xué)習(xí)系統(tǒng)會永遠(yuǎn)忠于真相,因?yàn)轵?qū)動(dòng)它們的算法是中立無偏見的。

對于我們中的某些人來說,這是一個(gè)bug:在剛性觀點(diǎn)之外,機(jī)器不應(yīng)該存有任何惻隱之心。對于其他的人來說,這是一個(gè)特征:機(jī)器應(yīng)該擺脫人類的偏見。但是在這兩者之間還有一種看法,機(jī)器將學(xué)會客觀。

當(dāng)然了真相遠(yuǎn)不是這樣的,事實(shí)的情況是智能系統(tǒng)不僅少有公正無偏見的,且偏見的來源還是多種多樣的。這些偏見來源包括我們用于訓(xùn)練系統(tǒng)的數(shù)據(jù),我們同機(jī)器在“野生環(huán)境”下的交互,突發(fā)偏見,相似偏見以及沖突性目標(biāo)的偏見。這些來源中的大多數(shù)通常被忽視,但是隨著我們對于智能系統(tǒng)的構(gòu)建和部署,了解機(jī)器的偏見來源顯得愈發(fā)重要,因?yàn)槲覀兛梢杂幸庾R地設(shè)計(jì)系統(tǒng)且有望避免潛在的問題。
萬萬沒想到 人工智能竟存在五大“偏見”
數(shù)據(jù)驅(qū)動(dòng)偏見
對于任何學(xué)習(xí)系統(tǒng)來說,輸出的訊息取決于它接受的數(shù)據(jù)。這并不是一個(gè)多么新穎的觀點(diǎn),只是當(dāng)我們看到那些被數(shù)百萬例子驅(qū)動(dòng)的系統(tǒng)時(shí),這一點(diǎn)通常被遺忘了。龐大的例子會壓倒任何人的偏見,但是如果訓(xùn)練集本身就是傾斜的,那么最終的結(jié)果也會帶有偏見。
最近這種類型的偏見已經(jīng)出現(xiàn)在一些經(jīng)過深度學(xué)習(xí)的圖像識別系統(tǒng)之中,尼康面部識別軟件中出現(xiàn)的對于亞洲人面孔識別以及HP皮膚色度的混淆問題似乎就是這種傾斜的實(shí)例集學(xué)習(xí)的產(chǎn)物。雖然這兩者都是固定的且無意識的,但是他們證明了如果我們不考慮數(shù)據(jù)中存在的偏差的話,最終還是會出現(xiàn)問題的。
除了面部識別,還有其他一些令人不安的情況會對現(xiàn)實(shí)世界產(chǎn)生影響。用于構(gòu)建預(yù)測假釋犯的累犯率、犯罪模式或潛在雇員的學(xué)習(xí)系統(tǒng)或多或少都會有一些潛在的負(fù)面影響。當(dāng)它們受訓(xùn)于有傾向性的數(shù)據(jù)、有的時(shí)候甚至是平衡數(shù)據(jù),但系統(tǒng)還是會在決策時(shí)出現(xiàn)偏見,同時(shí)這種偏見還是永久性的。
交互偏見
盡管有一些系統(tǒng)通過查看大量的示例組來學(xué)習(xí),但其他類型的系統(tǒng)大多通過交互來學(xué)習(xí),于是偏見隨著驅(qū)動(dòng)交互的用戶所帶的偏見而產(chǎn)生了。這種類型的偏見有一個(gè)很鮮明的例子,即微軟的Tay,一個(gè)基于Twitter的聊天機(jī)器人,旨在通過與用戶的交互中進(jìn)行學(xué)習(xí)。然而不幸的是,Tay受到了一個(gè)用戶社區(qū)的影響,在與這個(gè)社區(qū)的交互中Tay變成了一個(gè)種族主義者。從本質(zhì)上說,這個(gè)社區(qū)反復(fù)地在同Tay的聊天中表達(dá)了一些攻擊性的言論,通過學(xué)習(xí)系統(tǒng)Tay最后學(xué)會了這些語句并用作日后交互中的回復(fù)。
Tay前前后后只存活了24小時(shí),在成為一個(gè)極具攻擊性的種族主義者之后就被微軟強(qiáng)行關(guān)閉了。盡管Tay的種族主義嘲諷僅僅局限在Twitter上,但是這一事件表明了它潛在的對于現(xiàn)實(shí)世界的影響。正是因?yàn)槲覀儤?gòu)建的智能系統(tǒng)是從人類那里學(xué)習(xí)如何交流溝通以及做決策,那么類似的因?yàn)橛?xùn)練而產(chǎn)生的問題以后會越來越多。
那么如果人類同智能系統(tǒng)合作,隨著時(shí)間的推移,最終拿下控制權(quán)的會是誰呢?想一想吧,對于機(jī)器人作出的決定,諸如誰會獲得貸款或者誰被拒絕,我們在多大程度上會選擇信任呢?Tay事件教會我們的是,這樣的系統(tǒng)終將在與人交流的過程中學(xué)會人類以及環(huán)境中的偏見,無論是好的還是壞的,都會反映出訓(xùn)練它們的人類的意見與觀點(diǎn)。
突發(fā)性偏見
有的時(shí)候,個(gè)性化系統(tǒng)作出的決策最終會在我們周圍產(chǎn)生偏見“泡沫”,只要看一看Facebook目前的情況就能發(fā)現(xiàn)這一偏見確實(shí)存在。在最高層面上,F(xiàn)acebook的用戶可以看到他們朋友發(fā)的帖子,并且可以與之共享信息。
不幸的是,任何使用數(shù)據(jù)饋送分析然后呈現(xiàn)內(nèi)容的算法都將提供與用戶已經(jīng)看到的想法集相匹配的內(nèi)容。這種效果隨著用戶的點(diǎn)閱、喜歡和共享內(nèi)容而被逐漸放大,最終的結(jié)果是導(dǎo)致流向用戶的信息流都是基于現(xiàn)存的觀點(diǎn)和看法的。
盡管這的確是個(gè)性化的,且往往都是無害的,但是這再也不是我們所說的新聞?dòng)嵪⒘?。這是一個(gè)信息泡沫,是一個(gè)算法版本的“確認(rèn)偏見”。用戶再也不必屏蔽與他們意見相左的信息了,因?yàn)橄到y(tǒng)會自動(dòng)幫助他們屏蔽這些信息。
這些信息偏差對新聞世界的影響是令人不安的,但是當(dāng)我們把社交媒體模型視作支持企業(yè)做決策的一種方式時(shí),那么導(dǎo)致信息泡沫出現(xiàn)的系統(tǒng)似乎就有了扭曲人類思維的潛能。知識分子永遠(yuǎn)只會從與其相似的人那里獲得信息,而永遠(yuǎn)不會去注意那些與之對立的觀點(diǎn),于是他們就忽視了不一樣的想法。
相似性偏見
有的時(shí)候偏見僅僅只是系統(tǒng)按部就班照著設(shè)計(jì)跑流程時(shí)的產(chǎn)物。以谷歌新聞為例,它會向用戶推薦同其搜索內(nèi)容相匹配的新聞,這顯然是產(chǎn)品設(shè)計(jì)的目的之一,并且的確做的不錯(cuò)。當(dāng)然了,這種設(shè)計(jì)的結(jié)果是用戶會得到了一組類似的新聞,這些新聞之間相互佐證。這也就是說,他們催生了一個(gè)信息泡沫,這個(gè)泡沫同F(xiàn)acebook設(shè)計(jì)的個(gè)性化泡沫從本質(zhì)上換湯不換藥。
當(dāng)然有很多問題都與這一模式所強(qiáng)調(diào)的新聞角色及傳播緊密相關(guān),這其中最明顯的一個(gè)就是如何做到信息平衡的問題。“編輯把關(guān)”的缺失在目前是大范圍普存的,雖然相似性在信息世界是一個(gè)有力的判斷標(biāo)準(zhǔn),但絕不是唯一的。不同的觀點(diǎn)會為決策提供強(qiáng)有力的支持,只提供“類似”的查詢結(jié)果會建構(gòu)一個(gè)信息泡沫。
在企業(yè)中,沖突、對立、反對的觀點(diǎn)會帶來創(chuàng)新和變革,相似性偏見往往卻是一個(gè)很容易被接受的偏見。
沖突性目標(biāo)偏見
有的時(shí)候那些專為特定的商業(yè)目的而設(shè)計(jì)的系統(tǒng)最終也會產(chǎn)生偏見,這些偏見是真實(shí)但也是完全無法預(yù)測的。
舉個(gè)例子,試想一個(gè)旨在為求職者提供職位描述的系統(tǒng),當(dāng)用戶點(diǎn)擊職位描述的時(shí)候就會給出相應(yīng)的薪酬收入,那么很自然的這個(gè)算法的目標(biāo)就是希望通過提供職位描述信息來獲得更多的點(diǎn)擊次數(shù)。
事實(shí)證明,人們傾向于點(diǎn)擊符合他們個(gè)人觀點(diǎn)的工作。例如,女性首先傾向于為工作貼上“護(hù)理”的標(biāo)簽而不是“醫(yī)療技術(shù)員”。這不是因?yàn)檫@個(gè)工作對于他們來說是最好的,而是因?yàn)樗麄儽豢贪逵∠蠓磸?fù)提醒,然后將自己的觀點(diǎn)與這種印象保持一致。
刻板印象對于行為的威脅是這樣運(yùn)作的,通過呈現(xiàn)與人們刻板印象相符合的工作信息(例如性別、種族以及民族)來獲得更高的點(diǎn)擊率?;诖?,任何帶有學(xué)習(xí)功能的網(wǎng)站都會基于點(diǎn)擊行為來向用戶提供內(nèi)容強(qiáng)化的刻板印象。
機(jī)器偏見的本質(zhì)就是人的偏見
在一個(gè)理想的狀態(tài)里,智能系統(tǒng)及其算法都應(yīng)當(dāng)是客觀的。然而不幸的是,這些系統(tǒng)都是由人類建立,于是所有的系統(tǒng)最終都將反映出人類的偏見。通過了解偏見的本身以及問題的來源,我們可以積極地通過設(shè)計(jì)系統(tǒng)來避免偏見。
也許我們永遠(yuǎn)都不可能設(shè)計(jì)出完全客觀公正的系統(tǒng)及工具,但是至少我們能夠相對于人類來說他們是更為客觀的。這樣的話,選舉不再會誤導(dǎo)我們,流通貨幣不會再崩潰,然后我們可以打破信息泡沫、個(gè)性化新聞泡沫,同那些與我們不一樣的人交流溝通。