隨著人工智能的發(fā)展,機(jī)器人正應(yīng)用到更為廣泛的領(lǐng)域,并承擔(dān)了許多人類的決策職責(zé),這引發(fā)了全球?qū)τ谏鐣?huì)公平、倫理道德的高度關(guān)注??萍季揞^也認(rèn)識(shí)到了人工智能可能帶來(lái)的道德風(fēng)險(xiǎn),并成立了倫理委員會(huì)加強(qiáng)應(yīng)對(duì)。

俗話說(shuō):權(quán)利越大,責(zé)任越大。人工智能技術(shù)正變得越來(lái)越強(qiáng)大,那些最早開(kāi)發(fā)和部署機(jī)器學(xué)習(xí)、人工智能的企業(yè)現(xiàn)在也開(kāi)始公開(kāi)討論其創(chuàng)造的智能機(jī)器給倫理道德帶來(lái)的挑戰(zhàn)。
在《麻省理工科技評(píng)論》的EmTech峰會(huì)上,微軟研究院的常務(wù)董事埃里克·霍維茨(Eric Horvitz)說(shuō):“我們正處于人工智能的轉(zhuǎn)折點(diǎn),人工智能理應(yīng)受到人類道德的約束和保護(hù)。”
霍維茨與來(lái)自IBM和谷歌的研究人員仔細(xì)討論了類似的問(wèn)題。大家都很擔(dān)憂是,人工智能最近取得的進(jìn)步使其在某些方面上的表現(xiàn)超越了人類,例如醫(yī)療行業(yè),這可能會(huì)某些崗位的人失去工作的機(jī)會(huì)。
IBM的研究員弗朗西斯卡·羅西(Francesca Rossi)舉了一個(gè)例子:當(dāng)你要使用機(jī)器人去陪伴和幫助老年人的時(shí)候,機(jī)器人必須遵循相應(yīng)的文化規(guī)范,即針對(duì)老人所處的特定文化背景執(zhí)行特定的任務(wù)。如果你分別在日本和美國(guó)部署這樣的機(jī)器人,它們將會(huì)有很大的差異。
雖然這些的機(jī)器人可能離我們的目標(biāo)還很遙遠(yuǎn),但人工智能已經(jīng)帶來(lái)了倫理道德上的挑戰(zhàn)。隨著商業(yè)和政府越來(lái)越多地依靠人工智能系統(tǒng)做決策,技術(shù)上的盲點(diǎn)和偏見(jiàn)會(huì)很容易導(dǎo)致歧視現(xiàn)象的出現(xiàn)。
去年,一份ProPublica報(bào)告顯示,一些州使用的風(fēng)險(xiǎn)評(píng)分系統(tǒng)在通知刑事審判結(jié)果中對(duì)黑人存在偏見(jiàn)。同樣,霍維茨描述了一款由微軟提供的商用情緒識(shí)別系統(tǒng),該系統(tǒng)在對(duì)小孩子的測(cè)試中表現(xiàn)很不準(zhǔn)確,原因在于訓(xùn)練該系統(tǒng)的數(shù)據(jù)集圖片很不恰當(dāng)。
谷歌的研究員瑪雅·古帕(Maya Gupta)呼吁業(yè)界要更加努力地提出合理的開(kāi)發(fā)流程,以確保用于訓(xùn)練算法的數(shù)據(jù)公正、合理、不偏不倚。她說(shuō):“很多時(shí)候,數(shù)據(jù)集都是以某種自動(dòng)化的方式生成的,這不是很合理,我們需要考慮更多因素以確保收集到的數(shù)據(jù)都是有用的。想想我們僅從少數(shù)群體中選樣,即使樣本足夠大,這就一定能確保我們得到的結(jié)果很準(zhǔn)確嗎?”
去年一年,無(wú)論是在學(xué)術(shù)界還是在工業(yè)界,研究人員對(duì)機(jī)器學(xué)習(xí)和人工智能所帶來(lái)的倫理挑戰(zhàn)做了大量研究。加州大學(xué)伯克利分校、哈佛大學(xué)、劍橋大學(xué)、牛津大學(xué)和一些研究院都啟動(dòng)了相關(guān)項(xiàng)目以應(yīng)對(duì)人工智能對(duì)倫理和安全帶來(lái)的挑戰(zhàn)。2016年,亞馬遜,微軟,谷歌,IBM和Facebook聯(lián)合成立了一家非營(yíng)利性的人工智能合作組織(Partnership on AI)以解決此問(wèn)題(蘋果于2017年1月加入該組織)。
這些公司也正在各自采取相應(yīng)的技術(shù)安全保障措施。古帕強(qiáng)調(diào)谷歌的研究人員正在測(cè)試如何糾正機(jī)器學(xué)習(xí)模型的偏差,如何保證模型避免產(chǎn)生偏見(jiàn)?;艟S茨描述了微軟內(nèi)部成立的人工智能倫理委員會(huì)(AETHER),他們旨在考慮開(kāi)發(fā)部署在公司云上的新決策算法。該委員會(huì)的成員目前全是微軟員工,但他們也希望外來(lái)人員加入以應(yīng)對(duì)共同面臨的挑戰(zhàn)。Google也已經(jīng)成立了自己的人工智能倫理委員會(huì)。
實(shí)施了這些項(xiàng)目的公司大致認(rèn)為它們不需要政府采取新形式來(lái)實(shí)現(xiàn)對(duì)人工智能的監(jiān)管。但是,在EmTech峰會(huì)上,霍維茨也鼓勵(lì)討論一些極端的結(jié)果,這可能會(huì)導(dǎo)致一些人得出相反結(jié)論。
在二月份,霍維茨組織了一場(chǎng)研討會(huì),他們?cè)敿?xì)地討論了人工智能可能帶來(lái)的危害,比如搞亂股票市場(chǎng),干擾選舉結(jié)果?;艟S茨說(shuō):“如果你積極主動(dòng)一點(diǎn),你可能會(huì)想出人工智能將產(chǎn)生的某些不好的結(jié)果,并能夠提出相應(yīng)的機(jī)制阻止它們的發(fā)生。”
這樣的討論似乎引發(fā)了其中一部分人的恐慌。古帕也因此鼓勵(lì)人們?nèi)タ紤]人類應(yīng)該如何決策,使這個(gè)世界變得更加道德。