人們對(duì)新事物總是充滿恐懼。就在大家擔(dān)心無(wú)人駕駛汽車是否弊大于利的時(shí)候,AI重塑金融規(guī)律的創(chuàng)新也引起許多人對(duì)其中的法律和道德問(wèn)題的顧慮。
讓一個(gè)軟件程序來(lái)決定,誰(shuí)擁有投資開戶的資格,誰(shuí)能夠獲得貸款(征信),應(yīng)該收取多少的費(fèi)率,甚至在主流金融體系之外的金融服務(wù)客戶都可能收獲意想不到的后果。
但也有些人認(rèn)為,沒(méi)有什么能夠比算法更公平公正了——純粹數(shù)學(xué),畢竟,不會(huì)有偏見,對(duì)吧?
“一臺(tái)機(jī)器或一個(gè)機(jī)器人將基于事實(shí)和標(biāo)準(zhǔn)來(lái)計(jì)算出決策,”紅杉軟件財(cái)政性轉(zhuǎn)型主管Steve Palomino表示,“去除人為因素意味著,人們可以基于事實(shí)和具體情況來(lái)應(yīng)用標(biāo)準(zhǔn),而不是根據(jù)偏好或個(gè)人偏見和經(jīng)驗(yàn)。”
偏見問(wèn)題
這個(gè)論點(diǎn)的缺陷之一是,算法也是人為創(chuàng)建的,通常會(huì)在連他們都意識(shí)不到的細(xì)微處隱含了偏見。這些偏見也許會(huì)被嵌入到算法當(dāng)中。比如,去年卡耐基梅隆大學(xué) 的研究者測(cè)試谷歌的算法是如何向用戶推送廣告時(shí)發(fā)現(xiàn),廣告設(shè)置中的“男性”和“女性”標(biāo)簽中,谷歌會(huì)給“男性”用戶推薦薪酬更高的招聘廣告。
更極端地說(shuō),一個(gè)人工智能引擎做出信貸決策時(shí),也許會(huì)傾向于只認(rèn)可常春藤盟校畢業(yè)的,或者家庭收入超過(guò)30萬(wàn)美元的群體。
人工智能,究其本質(zhì)而言,還不能完全控制今天的以規(guī)則為基礎(chǔ)的系統(tǒng)。在AI里面,電腦可以隨著時(shí)間的推移來(lái)學(xué)習(xí)人們通常是如何做的:通過(guò)接收信息,然后決策基于這些數(shù)據(jù)進(jìn)行征信決策,并不斷觀察結(jié)果進(jìn)行風(fēng)控。隨著它們?cè)阱e(cuò)誤和正確的信息中不斷學(xué)習(xí),它們會(huì)不斷修正自己的規(guī)則和算法,然后開始作出它們自己的結(jié)論。
喬治華盛頓大學(xué)社群主義政策研究所國(guó)際事務(wù)教授兼主任Amitai Etzioni指出,無(wú)人駕駛汽車被指示不要超速,但它們也被設(shè)計(jì)了學(xué)習(xí)程序。當(dāng)周圍的汽車加速時(shí),它也會(huì)加速。它們所謂的標(biāo)準(zhǔn)是根據(jù)周圍的參照而對(duì)結(jié)果做出調(diào)整。
同樣的原則也適用于AI交付的抵押貸款決策。“銀行告訴程序:在任何情況下都不應(yīng)該將種族作為一個(gè)標(biāo)準(zhǔn),”他說(shuō),“但程序會(huì)發(fā)現(xiàn)風(fēng)險(xiǎn)與收入、受教育程度和郵政編碼有關(guān)——它會(huì)說(shuō)‘種族也是因素之一’,因?yàn)榻逃c郵政編碼都有種族標(biāo)簽有聯(lián)系,那為什么我不可以把種族也作為規(guī)則標(biāo)準(zhǔn)之一?”
人工智能程序缺乏良知。咨詢公司Spitzberg Partners首席分析師Steve Ehrlich表示,“你很難將道德編碼到機(jī)器里面去——它唯一的目的是為企業(yè)尋找解決方案。”
如何制衡?
Etzioni表示,我們需要的是AI監(jiān)護(hù)者——AI系統(tǒng)伴侶,它可以確保人工智能引擎不會(huì)偏離特定值。
那AI監(jiān)護(hù)者最后就不會(huì)學(xué)壞了嗎?
“這個(gè)問(wèn)題從柏拉圖一來(lái)就是個(gè)未解的難題。在柏拉圖理想的國(guó)度里,最高統(tǒng)治者是監(jiān)護(hù)者”Etzioni說(shuō)道,“但是,誰(shuí)來(lái)監(jiān)護(hù)監(jiān)護(hù)者?最后,人類必須有一個(gè)彼此制衡的閉環(huán)。”
這就引出了第三個(gè)問(wèn)題——人工智能程序的內(nèi)部運(yùn)作往往比較隱蔽,甚至他們的創(chuàng)造者也不知道其原理。換句話說(shuō),AI如同一黑盒。通過(guò)AI系統(tǒng),金融機(jī)構(gòu)做出的誰(shuí)能成為他們的客戶,他們將對(duì)誰(shuí)放貸,收取多少的費(fèi)率等等決定時(shí),都將成為不可知的。
這些問(wèn)題不僅僅是針對(duì)于傳統(tǒng)金融機(jī)構(gòu)的考慮。許多Fintech公司都采取了黑盒自動(dòng)化決策,并嚴(yán)重依賴算法。Social Finance (SoFi)已經(jīng)宣布自己是“FICO-Free Zone(FICO自由區(qū))”,即公司在進(jìn)行貸款資格審查的過(guò)程中已經(jīng)不再需要FICO的模型進(jìn)行評(píng)分。
但沒(méi)有人知道,他們?cè)谒惴耸褂昧耸裁磾?shù)據(jù)。美國(guó)P2P公司Prosper的CEO Ron Suber曾表示,該公司對(duì)每個(gè)借款人分析的數(shù)據(jù)樣本達(dá)到500個(gè),但具體的數(shù)據(jù)點(diǎn)又是什么呢?他們從不會(huì)說(shuō)。
Ehrlich表示,讓人工智能引擎做出金融決策還引發(fā)隱私問(wèn)題——這些數(shù)據(jù)的獲取或會(huì)涉及侵犯用戶的隱私。
“如果說(shuō)征信公司想要看看你的社交媒體或搜索歷史來(lái)確定你的信用評(píng)分,那么銀行至少應(yīng)該告知客戶其計(jì)劃使用這些信息。”
當(dāng)然,不管有沒(méi)有人工智能,數(shù)據(jù)隱私問(wèn)題都同樣存在。但人工智能程序的成功取決于它分析海量數(shù)據(jù)的能力。但與IBM的沃森和谷歌的AlphaGo不同,銀行不能將所有東西都扔進(jìn)它們的AI引擎里面。
“銀行應(yīng)該在前期公示他們將要搜集哪些信息,如何收集并用于什么地方。”
可依賴否?
使用人工智能自動(dòng)化決策的另一個(gè)問(wèn)題是,它們是否會(huì)使用智能合約技術(shù)自動(dòng)執(zhí)行,謂之可依賴性。
“如果我們不小心,我們可能無(wú)法實(shí)現(xiàn)我們認(rèn)為通過(guò)自動(dòng)化能夠做好的一切,”多倫多一名專門研究反洗黑錢規(guī)則、反恐怖主義集資、跨國(guó)資產(chǎn)追回的律師,Digital Finance Institute聯(lián)合創(chuàng)始人Christine Duhaime表示,“原因是,我們實(shí)現(xiàn)越高水平的自動(dòng)化后,就越難與人類溝通問(wèn)題。”
Ehrlich還指出,如果一個(gè)自動(dòng)生成的決策將對(duì)客戶造成消極后果,那么這需要對(duì)其有一個(gè)保護(hù)的機(jī)制。
確保決策過(guò)程中所有被用到的數(shù)據(jù)都是精確且最新的,這對(duì)企業(yè)來(lái)說(shuō)是一個(gè)特別的責(zé)任,除非用戶明確表示授權(quán),同時(shí)企業(yè)在適當(dāng)?shù)臅r(shí)候具備恰當(dāng)?shù)募夹g(shù)安保措施和隱私保護(hù)政策,并且只訪問(wèn)特許儲(chǔ)存的數(shù)據(jù)。
Duhaime指出,在AI中還有一個(gè)危險(xiǎn)隱患是,該技術(shù)實(shí)則將那些無(wú)法使用計(jì)算機(jī)或移動(dòng)設(shè)備的殘疾人和老者排除在外了。“在這樣的情況下,我們打著普惠金融的旗號(hào),最后卻將大部分客戶拒之門外,我們實(shí)即也沒(méi)有解決銀行現(xiàn)存問(wèn)題的能力。這只不過(guò)是制造了新的永遠(yuǎn)無(wú)法解決的銀行問(wèn)題罷了。”
AI系統(tǒng)也許也能夠被應(yīng)用于創(chuàng)造為殘疾人服務(wù)的技術(shù),“如果我們無(wú)法服務(wù)殘疾市場(chǎng),那么該技術(shù)在未來(lái)創(chuàng)造出的也許是弊大于利。”