国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 發(fā)那科機(jī)器人  工業(yè)  機(jī)器人  上海  ABB機(jī)器人  自動(dòng)化  工業(yè)機(jī)器人  工業(yè)機(jī)器人展  機(jī)器  展會(huì) 

年度研究報(bào)告:為AI領(lǐng)域提供的十條建議

   日期:2017-11-09     來(lái)源:36氪    作者:dc136     評(píng)論:0    
標(biāo)簽: 人工智能
   AI Now 在其舉辦的 AI 專家年度研討會(huì)邀請(qǐng)了一百多位相關(guān)領(lǐng)域的研究人員,會(huì)議討論了 AI 對(duì)社會(huì)經(jīng)濟(jì)的影響,在會(huì)上,AI Now 發(fā)布了第二份 AI 年度研究報(bào)告。
 
  雖然公眾對(duì) AI 抱有很高的期望,但我們也要注意到,快速推進(jìn)將 AI 系統(tǒng)整合到高風(fēng)險(xiǎn)領(lǐng)域正面臨著巨大的挑戰(zhàn)。就拿刑事司法領(lǐng)域來(lái)講,Propublica 團(tuán)隊(duì)及多名學(xué)者發(fā)現(xiàn),法庭和執(zhí)法部門用于預(yù)測(cè)刑事罪犯再次犯罪的算法,可能對(duì)非裔美國(guó)人存有相當(dāng)顯著的偏見(jiàn)。而在醫(yī)療保健領(lǐng)域中,匹茨堡大學(xué)醫(yī)學(xué)中心的研究發(fā)現(xiàn),一種用于治療肺炎的 AI 系統(tǒng)缺少了一項(xiàng)對(duì)嚴(yán)重并發(fā)癥的風(fēng)險(xiǎn)評(píng)估。教育領(lǐng)域中,德克薩斯州的教師評(píng)估算法存在重大缺陷,教師們因此起訴了他們所在的學(xué)區(qū)并獲得成功。
 
  上述這些例子只是冰山一角,沒(méi)有提到的、尚未為人所知的例子還有很多。帶來(lái)的一個(gè)挑戰(zhàn)是,AI 行業(yè)目前缺少標(biāo)準(zhǔn)化的測(cè)試模式和審核方法,無(wú)法完全避免算法偏差來(lái)保障它們的安全性。然而,早期的 AI 系統(tǒng)正被引入多個(gè)領(lǐng)域,如醫(yī)療、金融、法律、教育以及工作場(chǎng)所。這些系統(tǒng)越來(lái)越滲入人們的日常生活中,用于預(yù)測(cè)人們的音樂(lè)愛(ài)好、生病概率、適合的工作以及借貸金額等等。
 
  列舉的這些問(wèn)題并非蓄意濫用 AI 技術(shù)所致,而是因?yàn)樵?AI 技術(shù)的使用過(guò)程中,沒(méi)有用于確保安全性或者公平性的相關(guān)流程及標(biāo)準(zhǔn),更沒(méi)有深入思考它們帶來(lái)的社會(huì)效應(yīng)。眾所周知,當(dāng)新藥上市前,必定經(jīng)過(guò)嚴(yán)格的測(cè)試,并持續(xù)檢測(cè)中長(zhǎng)期的效果。在這類領(lǐng)域要慎之又慎,因?yàn)橐坏┏鲥e(cuò),將會(huì)給人們?cè)斐芍卮髠Α?duì)于高風(fēng)險(xiǎn)領(lǐng)域的 AI 系統(tǒng)亦如此。
 
  AI Now 在這份報(bào)告中,為 AI 行業(yè)的研究人員和決策者提供了十項(xiàng)建議。需要注意的是,這十項(xiàng)建議并非解決辦法,而是進(jìn)一步工作的起點(diǎn)。盡管 AI 產(chǎn)品正在迅速發(fā)展,但對(duì)算法偏見(jiàn)和公正的研究尚處于早期階段,如果想要確保 AI 系統(tǒng)能夠被負(fù)責(zé)任地部署與管理,還有很多的事情需要去做。AI Now 表示,他們將致力于進(jìn)一步研究,并進(jìn)行廣泛的社區(qū)分享。

  十項(xiàng)建議

  建議一
 
  刑事司法、醫(yī)療保健、福利和教育等高風(fēng)險(xiǎn)領(lǐng)域內(nèi)的核心公共機(jī)構(gòu)不應(yīng)再使用“黑盒子”的 AI 技術(shù)和算法系統(tǒng),包括未經(jīng)審查和驗(yàn)證的情況下使用預(yù)訓(xùn)練模型,采用第三方供應(yīng)商授權(quán)的 AI 系統(tǒng)及內(nèi)部創(chuàng)建的算法。
 
  公共機(jī)構(gòu)使用這類系統(tǒng)會(huì)引起公眾對(duì)這類法定訴訟程序的嚴(yán)重?fù)?dān)憂。這些系統(tǒng)至少要經(jīng)過(guò)公共審計(jì)、測(cè)試和審查的流程,并遵守相應(yīng)的問(wèn)責(zé)制。
 
  這帶來(lái)了一個(gè)重大轉(zhuǎn)變:這條建議反映了 AI 及相關(guān)系統(tǒng)已經(jīng)對(duì)一些重大決策產(chǎn)生了影響。在過(guò)去一年,亦有不少可這一點(diǎn)作證的研究報(bào)告。人們也在朝向這個(gè)目標(biāo)前進(jìn):從特克薩斯州教師評(píng)估訴訟案到 10 月份紐約市議會(huì)一項(xiàng)關(guān)于保障算法決策系統(tǒng)的透明度和測(cè)試的法案。
年度研究報(bào)告:為AI領(lǐng)域提供的十條建議
  James Vacca,來(lái)自紐約市布隆克斯區(qū)的市議員,2015 年提出公開(kāi)市政決策算法的提案。
 
  建議二
 
  在發(fā)布 AI 系統(tǒng)之前,企業(yè)應(yīng)該進(jìn)行嚴(yán)格的預(yù)發(fā)布測(cè)試,以確保不會(huì)由于訓(xùn)練數(shù)據(jù)、算法或其他系統(tǒng)設(shè)計(jì)的原因,導(dǎo)致系統(tǒng)出現(xiàn)任何錯(cuò)誤及偏差的發(fā)生。
 
  由于 AI 領(lǐng)域的發(fā)展日新月異,因此進(jìn)行測(cè)試的方法、假設(shè)以及測(cè)試結(jié)果,都應(yīng)該公開(kāi)透明、有明確版本,有助于適應(yīng)更新升級(jí)及新的發(fā)現(xiàn)。
 
  AI Now 認(rèn)為,開(kāi)發(fā)系統(tǒng)并從中獲利的公司應(yīng)承擔(dān)相應(yīng)的測(cè)試及保障環(huán)節(jié)的責(zé)任,包括預(yù)發(fā)布版的測(cè)試。AI 領(lǐng)域離標(biāo)準(zhǔn)化方法還有很長(zhǎng)的路要走,這也是為什么 AI Now 建議這些方法和假設(shè)需要公開(kāi)審查和討論的原因。如果假以時(shí)日,AI 領(lǐng)域制定出了健壯性測(cè)試標(biāo)準(zhǔn),那么這種開(kāi)放性至關(guān)重要。即使采用了標(biāo)準(zhǔn)化方法,實(shí)驗(yàn)室測(cè)試也未必能遇到所有的錯(cuò)誤和盲點(diǎn),因此也就有了第三項(xiàng)建議。
 
  建議三
 
  在發(fā)布 AI 系統(tǒng)后,公司應(yīng)繼續(xù)監(jiān)控其在不同環(huán)境和社區(qū)中的使用情況。
 
  監(jiān)督的方法和結(jié)果應(yīng)通過(guò)公開(kāi)透明、學(xué)術(shù)嚴(yán)謹(jǐn)?shù)倪^(guò)程來(lái)界定,并向公眾負(fù)責(zé)。特別是在高風(fēng)險(xiǎn)決策環(huán)境中,應(yīng)優(yōu)先考慮傳統(tǒng)邊緣化社區(qū)的觀點(diǎn)和經(jīng)驗(yàn)。
 
  確保 AI 和算法系統(tǒng)的安全性是非常復(fù)雜的問(wèn)題,在給定系統(tǒng)的生命周期中需要保持持續(xù)的過(guò)程,而非做完就忘的短期檢驗(yàn)。為了確保 AI 系統(tǒng)不會(huì)因?yàn)槲幕僭O(shè)和領(lǐng)域發(fā)生改變時(shí)引入錯(cuò)誤和偏差,因此需要對(duì)動(dòng)態(tài)用例和環(huán)境進(jìn)行監(jiān)控。同樣值得注意的是,許多 AI 模型和系統(tǒng)有通用性,其產(chǎn)品可能會(huì)采用即插即用的附加功能,如情感檢測(cè)或者面部識(shí)別等。這意味著提供通用 AI 模型的公司也可考慮選擇已經(jīng)批準(zhǔn)使用的功能,這些功能已經(jīng)考慮過(guò)潛在的缺陷和風(fēng)險(xiǎn)等因素。
 
  建議四
 
  讓 AI 系統(tǒng)應(yīng)用于工作場(chǎng)所管理和監(jiān)測(cè)方面(包括招聘和人力資源環(huán)節(jié)),還需要進(jìn)行更多的研究并制定相應(yīng)的政策。
 
  這項(xiàng)研究將重點(diǎn)補(bǔ)充現(xiàn)有自動(dòng)化替代工人的研究,要特別注意對(duì)勞動(dòng)者權(quán)利和做法的潛在影響,尤其是要注意操縱的潛在行為以及在招聘和晉升過(guò)程中無(wú)意強(qiáng)化的偏見(jiàn)。
年度研究報(bào)告:為AI領(lǐng)域提供的十條建議
  HireVue 成立于 2004 年,總部位于美國(guó)猶他州,是網(wǎng)絡(luò)招聘的先驅(qū)之一,并一直致力于網(wǎng)上視頻面試。但它不僅僅是利用網(wǎng)絡(luò)攝像頭幫助企業(yè)面試應(yīng)聘者,HireVue 還可以提供招聘管理解決方案,幫助企業(yè)處理求職申請(qǐng),并制定決策,而應(yīng)聘者只需通過(guò)手機(jī)或電腦錄制視頻。
 
  關(guān)于 AI 和勞動(dòng)力的爭(zhēng)論通常會(huì)集中在被迫流離失所的工人身上,這是一個(gè)非常嚴(yán)重的問(wèn)題。但是,AI Now 也認(rèn)為了解 AI 和算法系統(tǒng)在整個(gè)工作場(chǎng)所中使用的情況,也同等重要,包括行為助推(AI 前線注:行為經(jīng)濟(jì)學(xué)中的助推理論,通過(guò)解析人的認(rèn)知行為,設(shè)計(jì)更人性化、有效的選擇環(huán)境,影響人們的行為,幫助人們更好的做決策。該理論由 Thaler 提出,因此獲得 2017 年諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)。)、到檢測(cè)環(huán)節(jié),再到績(jī)效評(píng)估的所有過(guò)程。例如,一家名為 HireVue 的公司最近部署了一個(gè)基于 AI 的視頻面試服務(wù),用于分析應(yīng)聘者的講話、肢體語(yǔ)言和語(yǔ)調(diào),確定應(yīng)聘者是否符合一家給定公司的“最佳員工”的標(biāo)準(zhǔn),由于這些系統(tǒng)可能會(huì)減少多樣性并鞏固現(xiàn)有的偏見(jiàn),因此人們需要下更多的功夫去充分了解 AI 如何融入管理、招聘、調(diào)度以及日常工作場(chǎng)所的實(shí)踐中。
年度研究報(bào)告:為AI領(lǐng)域提供的十條建議
  行為經(jīng)濟(jì)學(xué)家 Richard Thaler 提出了助推理論,因此獲得了 2017 年諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)。
 
  建議五
 
  制定標(biāo)準(zhǔn),跟蹤系統(tǒng)整個(gè)生命周期的起源、開(kāi)發(fā)過(guò)程及訓(xùn)練數(shù)據(jù)集的使用情況。
 
  為了更好地了解和監(jiān)督偏差以及代表性偏差(representational skews)的問(wèn)題,這條建議是非常有必要的。除卻更好地記錄訓(xùn)練數(shù)據(jù)集的創(chuàng)建和維護(hù)過(guò)程外,AI 偏差領(lǐng)域的社會(huì)科學(xué)家和測(cè)量研究人員還應(yīng)該繼續(xù)檢驗(yàn)現(xiàn)有的訓(xùn)練數(shù)據(jù)集,并努力理解可能已存在實(shí)際工作中的潛在盲區(qū)和偏差。
 
  AI 依賴大規(guī)模數(shù)據(jù)來(lái)發(fā)現(xiàn)模式并作出預(yù)測(cè)。這些數(shù)據(jù)反映了人類歷史,但也不可避免地反映了訓(xùn)練數(shù)據(jù)集的偏見(jiàn)和成見(jiàn)。機(jī)器學(xué)習(xí)技術(shù)對(duì)于提取統(tǒng)計(jì)模式很拿手,但往往在概括常見(jiàn)案例的過(guò)程中忽略了不同的異常值,這就是為什么不根據(jù)數(shù)據(jù)表面價(jià)值進(jìn)行偏差研究的重要原因。這種研究要從理解 AI 系統(tǒng)的數(shù)據(jù)從哪里開(kāi)始,并尋蹤這些數(shù)據(jù)在系統(tǒng)中如何使用,還要隨著時(shí)間推移來(lái)驗(yàn)證給定的數(shù)據(jù)集。理解這一點(diǎn),人們方能更好了解數(shù)據(jù)中反應(yīng)的錯(cuò)誤與偏差,從而開(kāi)發(fā)出能在數(shù)據(jù)的開(kāi)發(fā)和采集中識(shí)別這種情況并減輕其錯(cuò)誤的方法。
 
  建議六
 
  超越狹隘的技術(shù)邊界,跨學(xué)科發(fā)展 AI 偏差研究和緩解策略的研究。
 
  偏差問(wèn)題由來(lái)已久,是一個(gè)結(jié)構(gòu)性的問(wèn)題,解決這個(gè)問(wèn)題的必要途徑之一就是深度的跨學(xué)科研究。研究人員試圖找出能夠一了百了的徹底解決的方法,殊不知這嚴(yán)重低估了這個(gè)問(wèn)題在社會(huì)層面中的復(fù)雜性。須知在教育、醫(yī)療保健、刑事司法等領(lǐng)域中,偏差問(wèn)題和平等運(yùn)動(dòng)的遺產(chǎn)都有自己的歷史和實(shí)踐。不結(jié)合相應(yīng)的領(lǐng)域?qū)I(yè)知識(shí),就不能徹底解決偏差問(wèn)題。要解決偏差問(wèn)題就需要跨學(xué)科的合作,并尊重不同學(xué)科的規(guī)律。
 
  最近,AI 和算法偏差領(lǐng)域的工作有喜人的跡象,但 AI Now 提醒人們不要向壁虛構(gòu),否則,很可能會(huì)出現(xiàn)系統(tǒng)在不知道如何優(yōu)化下卻被“優(yōu)化”的風(fēng)險(xiǎn)。計(jì)算機(jī)科學(xué)家可以通過(guò)與法律、醫(yī)學(xué)、社會(huì)學(xué)、人類學(xué)和傳播學(xué)等領(lǐng)域的專家合作,在 AI 數(shù)據(jù)形成及上下文集成之前,更好地理解數(shù)據(jù)地城的結(jié)構(gòu)性不平等的問(wèn)題。
 
  建議七
 
  亟需 AI 系統(tǒng)落地應(yīng)用的審查標(biāo)準(zhǔn)與規(guī)范。
 
  制定這些標(biāo)準(zhǔn)與規(guī)范需要結(jié)合各種學(xué)科及聯(lián)盟的觀點(diǎn),制定過(guò)程要以公開(kāi)、嚴(yán)謹(jǐn)?shù)膶W(xué)術(shù)態(tài)度進(jìn)行,并定期審查和修訂。
 
  目前尚無(wú)確定的方法能夠衡量評(píng)估 AI 系統(tǒng)在其應(yīng)用的社會(huì)領(lǐng)域中所產(chǎn)生的影響。鑒于目前尚處早期的 AI 系統(tǒng)已經(jīng)給一些高風(fēng)險(xiǎn)的社會(huì)領(lǐng)域造成了影響,這是一個(gè)必須重視的問(wèn)題,當(dāng)務(wù)之急是制定 AI 領(lǐng)域的標(biāo)準(zhǔn)和方法。
 
  建議八
 
  AI 領(lǐng)域的公司、大學(xué)、會(huì)議及其他利益相關(guān)者應(yīng)公布參與其工作的女性、少數(shù)族裔以及其他邊緣群體的人數(shù)。
 
  現(xiàn)在很多人認(rèn)識(shí)到這一問(wèn)題:目前 AI 領(lǐng)域研究人員缺乏多樣性,但該問(wèn)題的嚴(yán)重性缺乏細(xì)粒度數(shù)據(jù)的論證。為了建立真正包容的工作場(chǎng)所,需要對(duì)科技行業(yè)的工作文化進(jìn)行更深層次的評(píng)估,這就需要數(shù)據(jù)的支撐,而不是僅僅多雇傭女性和少數(shù)族裔就完事。
 
  創(chuàng)造 AI 系統(tǒng)的人本身持有的假設(shè)和觀點(diǎn)勢(shì)必會(huì)影響到 AI 系統(tǒng)。AI 的開(kāi)發(fā)人員多為男性白人,有著相似的教育背景。目前已有證據(jù)表明這種情況會(huì)造成問(wèn)題,如語(yǔ)音助手“聽(tīng)不懂”女性聲音、AI 助手無(wú)法提供有關(guān)婦女健康的信息等。文化的多樣性研究在一般科技領(lǐng)域有一定的進(jìn)展,但在 AI 領(lǐng)域的成果卻寥寥無(wú)幾。如果 AI 要向安全、公平、能夠廣泛應(yīng)用的方向發(fā)展,人們就不能只關(guān)注多樣性和包容性,還要確保 AI 公司的文化是歡迎文化女性、少數(shù)族裔以及其他邊緣群體的。
年度研究報(bào)告:為AI領(lǐng)域提供的十條建議
  建議九
 
  AI 行業(yè)應(yīng)聘請(qǐng)計(jì)算機(jī)科學(xué)與工程以外的學(xué)科專家,并確保他們擁有決策權(quán)。
 
  隨著 AI 在不同的社會(huì)和機(jī)構(gòu)領(lǐng)域的應(yīng)用日增月益,影響越來(lái)越多的高風(fēng)險(xiǎn)決策,人們必須努力將社會(huì)科學(xué)家、法律學(xué)者和其他領(lǐng)域的專家結(jié)合起來(lái),共同指導(dǎo) AI 的創(chuàng)建與整合,形成長(zhǎng)期的實(shí)踐規(guī)范。
 
  正如人們不希望讓律師去優(yōu)化深度神經(jīng)網(wǎng)絡(luò)一樣,人們也不應(yīng)該讓 AI 研究人員能夠成為刑事司法專家。同理,對(duì)于所有需要整合信息技術(shù)的其他社會(huì)領(lǐng)域亦如此。因此,人們需要法律、健康、教育等領(lǐng)域的專家參與進(jìn)來(lái),幫助領(lǐng)導(dǎo)決策,確保 AI 不會(huì)幼稚地低估該領(lǐng)域的復(fù)雜流程、歷史和環(huán)境。
 
  建議十
 
  AI 領(lǐng)域需要嚴(yán)格監(jiān)督和問(wèn)責(zé)機(jī)制,確保 AI 領(lǐng)域棄舊圖新。
 
  旨在引導(dǎo)人力資源領(lǐng)域的道德守則應(yīng)附有強(qiáng)有力的監(jiān)督和問(wèn)責(zé)機(jī)制。需要進(jìn)一步開(kāi)展工作,就如何將高層次的倫理原則和最佳做法準(zhǔn)則與日常開(kāi)發(fā)過(guò)程,促銷和產(chǎn)品發(fā)布周期進(jìn)行實(shí)質(zhì)性聯(lián)系。
 
  一些計(jì)算機(jī)行業(yè)團(tuán)體機(jī)構(gòu)正在制定道德守則,以確保 AI 開(kāi)發(fā)的安全與平等。然而,這些做法都是出于團(tuán)隊(duì)自愿,一般只有相對(duì)高端的組織才會(huì)將要求 AI 開(kāi)發(fā)人員將公眾利益放在較高的優(yōu)先級(jí)。但是,共同利益如何決定?將由誰(shuí)決定?除去由誰(shuí)代表公眾利益這一問(wèn)題外,AI 代碼在道德方面還要結(jié)合明確的問(wèn)責(zé)機(jī)制,還須意識(shí)到 AI 行業(yè)在激勵(lì)模式和權(quán)力分配方面存在不對(duì)稱的情況。
 
  譯者感言:
 
  AI 最大的問(wèn)題是人們無(wú)法精確地解釋 AI 系統(tǒng)為何做出那樣的決定,沒(méi)有辦法解開(kāi)它的蓋子,窺視內(nèi)部的工作場(chǎng)景,我們只能選擇相信它。這就為我們帶來(lái)了巨大的挑戰(zhàn)。我們?cè)撊绾蜗嘈?AI 呢?這也是全世界公眾普遍擔(dān)憂的問(wèn)題之一。哈佛法學(xué)院互聯(lián)網(wǎng)法律教授 Jonathan Zittrain 曾經(jīng)說(shuō):“在技術(shù)幫助下,我們的系統(tǒng)變得越來(lái)越復(fù)雜,我很擔(dān)心人類的自主性被減少。如果我們?cè)O(shè)置了系統(tǒng),然后將其忘諸腦后,系統(tǒng)的自我演變帶來(lái)的后果可能讓我們后悔莫及。對(duì)此,目前還沒(méi)有明確的道德層面上的考慮。”
 
  如果我們能夠制定行業(yè)標(biāo)準(zhǔn)和道德標(biāo)準(zhǔn),并全面了解 AI 存在的風(fēng)險(xiǎn),然后建立以倫理學(xué)家、技術(shù)專家以及企業(yè)領(lǐng)導(dǎo)人為核心的監(jiān)管機(jī)制非常重要。這是利用 AI 為全人類謀福利的最佳方式。人工智能的潛力與威脅,其實(shí)一直都取決于人類自己。
 
 
聲明:凡資訊來(lái)源注明為其他媒體來(lái)源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點(diǎn),也不代表本網(wǎng)站對(duì)其真實(shí)性負(fù)責(zé)。您若對(duì)該文章內(nèi)容有任何疑問(wèn)或質(zhì)疑,請(qǐng)立即與中國(guó)機(jī)器人網(wǎng)(www.baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
電話:021-39553798-8007
更多>相關(guān)專題
0相關(guān)評(píng)論

推薦圖文
推薦專題
點(diǎn)擊排行
?