2018年9月,美國(guó)眾議院監(jiān)督和政府改革小組委員會(huì)(House Oversight and Government Reform Subcommittee)信息技術(shù)組主席Will Hurd和首席成員Robin Kelly簽發(fā)了題為《Rise of the Machines—Artificial Intelligence and its Growing Impact on U.S. Policy》(機(jī)器崛起:人工智能及對(duì)美國(guó)政策不斷增長(zhǎng)的影響)的AI白皮書。
文中小組委員會(huì)總結(jié)了關(guān)于人工智能監(jiān)督和聽證會(huì)的經(jīng)驗(yàn)教訓(xùn),并提出了前瞻性的建議。小組委員會(huì)分析了在AI應(yīng)用方面面臨的挑戰(zhàn),文中主要關(guān)注失業(yè)、隱私、偏見和惡意使用4個(gè)問題領(lǐng)域并提出了針對(duì)性建議。
現(xiàn)由學(xué)術(shù)plus編譯全文,僅供參考。
文章版權(quán)歸原作者所有,觀點(diǎn)不代表本機(jī)構(gòu)立場(chǎng)。
機(jī)器崛起:人工智能及對(duì)美國(guó)政策不斷增長(zhǎng)的影響
作者:plus評(píng)論員 張濤
來源:https://oversight.house.gov
一、AI所面臨的挑戰(zhàn)
眾議院監(jiān)督和政府改革小組委員會(huì)的聽證會(huì)得出結(jié)論,AI面臨不同種類的挑戰(zhàn)。本文主要解決聽證會(huì)提出的以下問題。
1、勞動(dòng)力(失業(yè)問題)
一個(gè)重要問題就是AI驅(qū)動(dòng)的自動(dòng)化可能會(huì)導(dǎo)致失業(yè)。2017年12月,麥肯錫的報(bào)告稱由于AI驅(qū)動(dòng)的自動(dòng)化,美國(guó)和德國(guó)大約有1/3的勞動(dòng)力可能需要找新的工作。2013年牛津大學(xué)一份研究稱AI技術(shù)對(duì)美國(guó)勞動(dòng)力的影響可能更高,大約有47%的美國(guó)人面臨失業(yè)的風(fēng)險(xiǎn)。除此之外,AI還有可能帶來財(cái)富不平等的問題。
但聽證會(huì)和其他研究表明,AI也有改善和增加工作機(jī)會(huì)的空間。比如,經(jīng)濟(jì)合作與發(fā)展組織(Organisation for Economic Co-operation and Development,OECD)2018年3月的一份報(bào)告就稱OECD成員國(guó)有14%的工作面臨自動(dòng)化的風(fēng)險(xiǎn)。
所有這些研究的共同點(diǎn)是在指定經(jīng)濟(jì)政策時(shí)必須考慮到美國(guó)人在采納人工智能技術(shù)的同時(shí)所面臨的不確定的工作前景,以及需要增加對(duì)教育和工人再培訓(xùn)方面的投資。因此,應(yīng)鼓勵(lì)聯(lián)邦、州和地方政府與教育工作者、雇主、雇員、工會(huì)和其他利益相關(guān)者合作,制定有效的戰(zhàn)略以改善美國(guó)工人的教育、培訓(xùn)和再培訓(xùn),使其在人工智能驅(qū)動(dòng)的經(jīng)濟(jì)中更具競(jìng)爭(zhēng)力。聯(lián)邦政府也應(yīng)該以身作則,在教育和培訓(xùn)方面投入更多,使其現(xiàn)有和未來的勞動(dòng)力獲得必要的人工智能技能。
2、隱私
AI技術(shù)依賴于算法,而算法需要大量的數(shù)據(jù)來決定如何響應(yīng)這些新的輸入。因?yàn)锳I技術(shù)需要大量的數(shù)據(jù),因此聽證會(huì)中多次將個(gè)人隱私視為潛在挑戰(zhàn)。例如,人工智能專家Ben Buchanan博士就消費(fèi)者數(shù)據(jù)用在人工智能系統(tǒng)中所面臨的各種隱私風(fēng)險(xiǎn)進(jìn)行了證明。這些數(shù)據(jù)有被黑客竊取的風(fēng)險(xiǎn),也有可能被收集或有權(quán)限訪問的人濫用以及二次使用的風(fēng)險(xiǎn)。
2017年美國(guó)最大的征信機(jī)構(gòu)Equifax數(shù)據(jù)泄露事件就應(yīng)證了研究人員的擔(dān)憂。黑客成功入侵了系統(tǒng)后,獲取了大約1.45億美國(guó)公民個(gè)人數(shù)據(jù)的訪問權(quán)限。這些數(shù)據(jù)包括Equifax收集的用戶敏感信息,有社會(huì)安全碼、生日、地址、駕駛證號(hào)等。
涉及隱私問題的另一個(gè)例子是智能音箱(即使用基于語(yǔ)音的數(shù)字助理)。智能音箱為了能夠響應(yīng)用戶的命令,需要隨時(shí)監(jiān)聽,那么非命令期間聽取的數(shù)據(jù)怎么辦呢?執(zhí)法部門已經(jīng)開始要求科技公司為刑事案件錄音。但這也提出了一個(gè)新的問題,即如何使一直處于監(jiān)聽狀態(tài)的設(shè)備做到收集消費(fèi)者的證據(jù)呢?
為了解決人工智能驅(qū)動(dòng)的技術(shù)帶來的各種隱私挑戰(zhàn),Buchanan博士稱企業(yè)需要在人工智能系統(tǒng)的設(shè)計(jì)和開發(fā)中采取更嚴(yán)格的保障措施。但消費(fèi)者技術(shù)協(xié)會(huì)主席Gary Shapiro認(rèn)為針對(duì)不同的AI應(yīng)用應(yīng)該有不同的管理方式,而不能將所有的AI應(yīng)用放在同一個(gè)AI隱私管理規(guī)范之下。一些人工智能產(chǎn)品和應(yīng)用程序可能已經(jīng)受到了聯(lián)邦隱私法或聯(lián)邦貿(mào)易委員會(huì)的約束,例如健康保險(xiǎn)流通與責(zé)任法案(Health Insurance Portability and Accountability Act)、兒童在線隱私保護(hù)法案(Children’s Online Privacy Protection Act)、Gramm-Leach-Bliley法案。
隨著人工智能系統(tǒng)和應(yīng)用程序越來越多地收集和使用個(gè)人數(shù)據(jù),更加引起人們對(duì)隱私問題的擔(dān)憂。因此,聯(lián)邦機(jī)構(gòu)應(yīng)審查聯(lián)邦隱私法律、法規(guī)和司法判決,以確定它們?nèi)绾我呀?jīng)適用于其管轄范圍內(nèi)的AI產(chǎn)品,并在必要時(shí)更新現(xiàn)有法規(guī)(加入AI的管理內(nèi)容)。
3、偏見
人們?cè)絹碓揭蕾嘇I技術(shù)來做出關(guān)于個(gè)人的決策,這也加劇了人們對(duì)這項(xiàng)技術(shù)準(zhǔn)確性的擔(dān)憂,特別是在政府使用該技術(shù)時(shí)。電子隱私信息中心(EPIC)在向小組委員會(huì)發(fā)表的一份聲明中解釋道:“當(dāng)政府使用AI來制定關(guān)于人們的決策時(shí),增加了關(guān)于問責(zé)制、正當(dāng)程序和公平性的基本問題。”
AI非常依賴數(shù)據(jù)。如果數(shù)據(jù)本身是不完整的、存在偏見或存在其他形式的偏差, AI系統(tǒng)就可能存在不準(zhǔn)確的風(fēng)險(xiǎn)。由于AI系統(tǒng)依賴于越來越大量的數(shù)據(jù),包含偏見(差)的數(shù)據(jù)集可能會(huì)增加風(fēng)險(xiǎn)。如果AI系統(tǒng)是通過有偏見數(shù)據(jù)訓(xùn)練的,那么AI系統(tǒng)產(chǎn)生的結(jié)果應(yīng)該是有偏見的。
比如,2016年P(guān)roPublica調(diào)查了一些法院使用“風(fēng)險(xiǎn)預(yù)測(cè)工具”用于刑事判決和保釋聽證會(huì)的情況。調(diào)查結(jié)果顯示算法和系統(tǒng)是有偏見和不準(zhǔn)確的。非洲裔美國(guó)人被標(biāo)記為高風(fēng)險(xiǎn)的人數(shù)是白人的兩倍,但這些被標(biāo)記為高風(fēng)險(xiǎn)的非洲裔美國(guó)人之后并沒有再犯罪。隨著AI技術(shù)應(yīng)用于金融、法律、醫(yī)療等行業(yè),這些偏見可能會(huì)被AI技術(shù)放大,最后給人們帶來傷害。
聽證會(huì)上,其他利益相關(guān)方也明確指出,解決AI系統(tǒng)中的偏見或潛在偏見的最有效方法之一就是提高這些系統(tǒng)使用的透明度:
AI系統(tǒng)應(yīng)該是可檢查的。算法用于構(gòu)建模型的數(shù)據(jù)應(yīng)該是適宜的。算法做出的決策應(yīng)當(dāng)是可檢查的。換句話說,當(dāng)我們使用這些算法時(shí),應(yīng)該要能夠解釋每個(gè)算法的輸出。
解決AI中的偏見的解決方案也是跨領(lǐng)域的。例如,埃森哲最近推出了一種“AI fairness tool(人工智能公平工具)”,該工具使用AI來檢查數(shù)據(jù)如何影響模型中的變量,如年齡、性別和種族等。人工智能相關(guān)的非政府研究機(jī)構(gòu)也在研究AI偏見和人工智能。簡(jiǎn)而言之,解決AI系統(tǒng)中的偏見和潛在偏差將需要在這些系統(tǒng)做出有關(guān)個(gè)人的相應(yīng)決策時(shí)提高透明度。
聯(lián)邦、州和地方機(jī)構(gòu)在使用AI系統(tǒng)做出相應(yīng)決策時(shí)應(yīng)確保支持這些系統(tǒng)的算法是可審計(jì)和可檢查的。此外,鼓勵(lì)聯(lián)邦、州和地方政府更積極地與學(xué)術(shù)機(jī)構(gòu)、非營(yíng)利組織和私營(yíng)企業(yè)合作,討論如何識(shí)別人工智能系統(tǒng)中的偏見,以及如何通過技術(shù)更好地消除偏見和如何解釋偏見。
4、AI的惡意使用
聽證會(huì)還強(qiáng)調(diào)了預(yù)防AI的惡意使用的必要性。OpenAI 2018年初發(fā)布的一份報(bào)告稱,除非制定足夠的防御措施,否則人工智能的進(jìn)展將導(dǎo)致網(wǎng)絡(luò)攻擊“更有效、更有針對(duì)性、更難以追溯、AI系統(tǒng)中的漏洞也更可能利用”。該報(bào)告的結(jié)果與網(wǎng)絡(luò)安全公司Cylance 2017年的調(diào)查結(jié)果一致。Cylance的調(diào)查顯示, 62%的信息安全專家認(rèn)為,人工智能將于明年被用于網(wǎng)絡(luò)攻擊中。
AI的計(jì)算能力使其能夠以指數(shù)級(jí)增加網(wǎng)絡(luò)攻擊的嚴(yán)重性。AI惡意使用特別值得特別關(guān)注的三個(gè)方面是:政治安全、物理安全和數(shù)字安全。這三個(gè)領(lǐng)域之間的共同主題是AI擴(kuò)大了風(fēng)險(xiǎn)等級(jí)。比如,網(wǎng)絡(luò)攻擊可以在一瞬間影響更多的設(shè)備、人和企業(yè),從而破壞數(shù)字安全。事實(shí)上,美國(guó)已開始使用AI應(yīng)對(duì)網(wǎng)絡(luò)攻擊。
比如過去幾年俄羅斯發(fā)起的虛假信息宣傳活動(dòng)。有了AI技術(shù)的推動(dòng),含有“deepfake”技術(shù)偽造的視頻的“假新聞”可能會(huì)更容易讓人相信。通過數(shù)據(jù)AI可以精確地識(shí)別那些最易受到虛假信息影響的人。這種能力可能會(huì)極大擴(kuò)大敵對(duì)民族國(guó)家破壞另一個(gè)國(guó)家政治體系的虛假宣傳活動(dòng)中受影響的人數(shù)。
→Deepfakes變臉術(shù) 竟成為美國(guó)國(guó)家安全的新威脅
AI系統(tǒng)也可能危及物理安全。例如,來自美國(guó)大學(xué)的一組研究人員展示了黑客如何通過一些簡(jiǎn)單的貼紙使自動(dòng)駕駛車輛錯(cuò)誤識(shí)別路標(biāo),而這些貼紙本是無害的。
在考慮未來如何積極利用AI時(shí),政府還必須考慮該技術(shù)被用于傷害個(gè)人和社會(huì)的情況,并為如何減輕這些危害做好準(zhǔn)備。
二、政府如何回應(yīng)AI?
一般來說,美國(guó)政府對(duì)新興技術(shù)采取不干涉方式。比如,在20世紀(jì)90年代,政府對(duì)互聯(lián)網(wǎng)的首選政策是支持私人行動(dòng)而不是采取公共監(jiān)管。在此期間,雖然國(guó)會(huì)和州立法機(jī)構(gòu)通過了若干關(guān)于商業(yè)、內(nèi)容和競(jìng)爭(zhēng)的法律,但都側(cè)重于為新興網(wǎng)絡(luò)制定合理的上層建筑,而不是對(duì)其發(fā)展進(jìn)行微觀管理??肆诸D政府采取了“有益忽視(salutary neglect)”的政策,克林頓總統(tǒng)命令政府“不做任何破壞新興技術(shù)提升普通美國(guó)人生活的能力的事情”。
小組委員會(huì)的建議是聯(lián)邦政府對(duì)任何潛在的人工智能進(jìn)行監(jiān)管應(yīng)該考慮上述歷史。政府應(yīng)該首先評(píng)估對(duì)公共安全或消費(fèi)者帶來的風(fēng)險(xiǎn)是否適用于現(xiàn)有的監(jiān)管框架,如果是,應(yīng)考慮現(xiàn)有框架是否能夠充分應(yīng)對(duì)帶來的風(fēng)險(xiǎn)。如果這些風(fēng)險(xiǎn)超出現(xiàn)有的監(jiān)管框架,則應(yīng)謹(jǐn)慎考慮是否需要修改或增加以更好地應(yīng)對(duì)人工智能帶來的風(fēng)險(xiǎn)。
在廣泛認(rèn)可的衡量AI產(chǎn)品和應(yīng)用安全和網(wǎng)絡(luò)信息安全的標(biāo)準(zhǔn)應(yīng)該優(yōu)先于新的監(jiān)管措施。一個(gè)共同的分類方法也有助于提高清晰度,并能夠準(zhǔn)確計(jì)算人工智能的技能和用途。美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)是制定標(biāo)準(zhǔn)的關(guān)鍵角色,IEEE(電氣和電子工程師協(xié)會(huì))關(guān)于自主和智能系統(tǒng)倫理的全球倡議也起著重要的作用。人工智能指數(shù)(AI Index)是斯坦福大學(xué)“人工智能百年研究”的一部分,收集了有關(guān)人工智能的數(shù)據(jù)以衡量其進(jìn)展,這對(duì)于提供歷史背景的標(biāo)準(zhǔn)制定至關(guān)重要。聯(lián)邦政府應(yīng)該與公共機(jī)構(gòu)、學(xué)術(shù)和私營(yíng)企業(yè)一起協(xié)作制定出衡量人工智能產(chǎn)品和應(yīng)用安全性的標(biāo)準(zhǔn)。
在沒有監(jiān)管的情況下,聯(lián)邦政府也有切實(shí)可行的方式促進(jìn)人工智能的創(chuàng)新。比如,政府擁有數(shù)千種不同的數(shù)據(jù)集,這些數(shù)據(jù)集對(duì)研究人工智能的研究人員和執(zhí)行任務(wù)的機(jī)構(gòu)來說非常有用。這些數(shù)據(jù)集中許多都是公共產(chǎn)品,應(yīng)該向公眾開放。
因此,參議院應(yīng)努力通過眾議院去年通過的“開放政府?dāng)?shù)據(jù)法案(OGDA)”。OGDA允許所有非敏感政府?dāng)?shù)據(jù)免費(fèi)向公眾開放。聽證會(huì)上,研究人員稱通過更加開放的數(shù)據(jù)政策,可用加強(qiáng)AI的發(fā)展。如果參議院通過了OGDA,總統(tǒng)應(yīng)盡快簽署成為法律,而主管機(jī)關(guān)應(yīng)盡快實(shí)施。
聽證會(huì)上普遍支持的另一項(xiàng)建議是為研發(fā)提供更多的經(jīng)濟(jì)支持。大學(xué)和非營(yíng)利機(jī)構(gòu)進(jìn)行的研究以及企業(yè)的研發(fā)工作是美國(guó)成為人工智能領(lǐng)導(dǎo)者的主要原因。為了保持美國(guó)在AI領(lǐng)域的領(lǐng)導(dǎo)地位,需要增加國(guó)家科學(xué)基金會(huì)、國(guó)立衛(wèi)生研究院、國(guó)防高級(jí)研究項(xiàng)目機(jī)構(gòu)、情報(bào)高級(jí)研究項(xiàng)目機(jī)構(gòu)、國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所、國(guó)土安全部、國(guó)家航空航天局等機(jī)構(gòu)的研發(fā)資金。因此,建議聯(lián)邦政府規(guī)定穩(wěn)步增加聯(lián)邦在AI研發(fā)領(lǐng)域的支出。增加資助的另一個(gè)好處是能夠招募和支持更多的研究生,這些研究生將構(gòu)成未來AI領(lǐng)域的主要人才。