国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產業(yè)聯盟  發(fā)那科  庫卡  碼垛機器人  機械手 

年度研究報告:為AI領域提供的十條建議

   日期:2017-11-09     來源:中國證券網    作者:dc136     評論:0    
標簽: 機器人
  AI Now 在其舉辦的 AI 專家年度研討會邀請了一百多位相關領域的研究人員,會議討論了 AI 對社會經濟的影響,在會上,AI Now 發(fā)布了第二份 AI 年度研究報告。
 
  雖然公眾對 AI 抱有很高的期望,但我們也要注意到,快速推進將 AI 系統(tǒng)整合到高風險領域正面臨著巨大的挑戰(zhàn)。就拿刑事司法領域來講,Propublica 團隊及多名學者發(fā)現,法庭和執(zhí)法部門用于預測刑事罪犯再次犯罪的算法,可能對非裔美國人存有相當顯著的偏見。而在醫(yī)療保健領域中,匹茨堡大學醫(yī)學中心的研究發(fā)現,一種用于治療肺炎的 AI 系統(tǒng)缺少了一項對嚴重并發(fā)癥的風險評估。教育領域中,德克薩斯州的教師評估算法存在重大缺陷,教師們因此起訴了他們所在的學區(qū)并獲得成功。
 
  上述這些例子只是冰山一角,沒有提到的、尚未為人所知的例子還有很多。帶來的一個挑戰(zhàn)是,AI 行業(yè)目前缺少標準化的測試模式和審核方法,無法完全避免算法偏差來保障它們的安全性。然而,早期的 AI 系統(tǒng)正被引入多個領域,如醫(yī)療、金融、法律、教育以及工作場所。這些系統(tǒng)越來越滲入人們的日常生活中,用于預測人們的音樂愛好、生病概率、適合的工作以及借貸金額等等。
 
  列舉的這些問題并非蓄意濫用 AI 技術所致,而是因為在 AI 技術的使用過程中,沒有用于確保安全性或者公平性的相關流程及標準,更沒有深入思考它們帶來的社會效應。眾所周知,當新藥上市前,必定經過嚴格的測試,并持續(xù)檢測中長期的效果。在這類領域要慎之又慎,因為一旦出錯,將會給人們造成重大傷害。對于高風險領域的 AI 系統(tǒng)亦如此。
 
  AI Now 在這份報告中,為 AI 行業(yè)的研究人員和決策者提供了十項建議。需要注意的是,這十項建議并非解決辦法,而是進一步工作的起點。盡管 AI 產品正在迅速發(fā)展,但對算法偏見和公正的研究尚處于早期階段,如果想要確保 AI 系統(tǒng)能夠被負責任地部署與管理,還有很多的事情需要去做。AI Now 表示,他們將致力于進一步研究,并進行廣泛的社區(qū)分享。

  十項建議

  建議一
 
  刑事司法、醫(yī)療保健、福利和教育等高風險領域內的核心公共機構不應再使用“黑盒子”的 AI 技術和算法系統(tǒng),包括未經審查和驗證的情況下使用預訓練模型,采用第三方供應商授權的 AI 系統(tǒng)及內部創(chuàng)建的算法。
 
  公共機構使用這類系統(tǒng)會引起公眾對這類法定訴訟程序的嚴重擔憂。這些系統(tǒng)至少要經過公共審計、測試和審查的流程,并遵守相應的問責制。
 
  這帶來了一個重大轉變:這條建議反映了 AI 及相關系統(tǒng)已經對一些重大決策產生了影響。在過去一年,亦有不少可這一點作證的研究報告。人們也在朝向這個目標前進:從特克薩斯州教師評估訴訟案到 10 月份紐約市議會一項關于保障算法決策系統(tǒng)的透明度和測試的法案。
年度研究報告:為AI領域提供的十條建議
  James Vacca,來自紐約市布隆克斯區(qū)的市議員,2015 年提出公開市政決策算法的提案。
 
  建議二
 
  在發(fā)布 AI 系統(tǒng)之前,企業(yè)應該進行嚴格的預發(fā)布測試,以確保不會由于訓練數據、算法或其他系統(tǒng)設計的原因,導致系統(tǒng)出現任何錯誤及偏差的發(fā)生。
 
  由于 AI 領域的發(fā)展日新月異,因此進行測試的方法、假設以及測試結果,都應該公開透明、有明確版本,有助于適應更新升級及新的發(fā)現。
 
  AI Now 認為,開發(fā)系統(tǒng)并從中獲利的公司應承擔相應的測試及保障環(huán)節(jié)的責任,包括預發(fā)布版的測試。AI 領域離標準化方法還有很長的路要走,這也是為什么 AI Now 建議這些方法和假設需要公開審查和討論的原因。如果假以時日,AI 領域制定出了健壯性測試標準,那么這種開放性至關重要。即使采用了標準化方法,實驗室測試也未必能遇到所有的錯誤和盲點,因此也就有了第三項建議。
 
  建議三
 
  在發(fā)布 AI 系統(tǒng)后,公司應繼續(xù)監(jiān)控其在不同環(huán)境和社區(qū)中的使用情況。
 
  監(jiān)督的方法和結果應通過公開透明、學術嚴謹的過程來界定,并向公眾負責。特別是在高風險決策環(huán)境中,應優(yōu)先考慮傳統(tǒng)邊緣化社區(qū)的觀點和經驗。
 
  確保 AI 和算法系統(tǒng)的安全性是非常復雜的問題,在給定系統(tǒng)的生命周期中需要保持持續(xù)的過程,而非做完就忘的短期檢驗。為了確保 AI 系統(tǒng)不會因為文化假設和領域發(fā)生改變時引入錯誤和偏差,因此需要對動態(tài)用例和環(huán)境進行監(jiān)控。同樣值得注意的是,許多 AI 模型和系統(tǒng)有通用性,其產品可能會采用即插即用的附加功能,如情感檢測或者面部識別等。這意味著提供通用 AI 模型的公司也可考慮選擇已經批準使用的功能,這些功能已經考慮過潛在的缺陷和風險等因素。
 
  建議四
 
  讓 AI 系統(tǒng)應用于工作場所管理和監(jiān)測方面(包括招聘和人力資源環(huán)節(jié)),還需要進行更多的研究并制定相應的政策。
 
  這項研究將重點補充現有自動化替代工人的研究,要特別注意對勞動者權利和做法的潛在影響,尤其是要注意操縱的潛在行為以及在招聘和晉升過程中無意強化的偏見。
年度研究報告:為AI領域提供的十條建議
  HireVue 成立于 2004 年,總部位于美國猶他州,是網絡招聘的先驅之一,并一直致力于網上視頻面試。但它不僅僅是利用網絡攝像頭幫助企業(yè)面試應聘者,HireVue 還可以提供招聘管理解決方案,幫助企業(yè)處理求職申請,并制定決策,而應聘者只需通過手機或電腦錄制視頻。
 
  關于 AI 和勞動力的爭論通常會集中在被迫流離失所的工人身上,這是一個非常嚴重的問題。但是,AI Now 也認為了解 AI 和算法系統(tǒng)在整個工作場所中使用的情況,也同等重要,包括行為助推(AI 前線注:行為經濟學中的助推理論,通過解析人的認知行為,設計更人性化、有效的選擇環(huán)境,影響人們的行為,幫助人們更好的做決策。該理論由 Thaler 提出,因此獲得 2017 年諾貝爾經濟學獎。)、到檢測環(huán)節(jié),再到績效評估的所有過程。例如,一家名為 HireVue 的公司最近部署了一個基于 AI 的視頻面試服務,用于分析應聘者的講話、肢體語言和語調,確定應聘者是否符合一家給定公司的“最佳員工”的標準,由于這些系統(tǒng)可能會減少多樣性并鞏固現有的偏見,因此人們需要下更多的功夫去充分了解 AI 如何融入管理、招聘、調度以及日常工作場所的實踐中。
年度研究報告:為AI領域提供的十條建議
  行為經濟學家 Richard Thaler 提出了助推理論,因此獲得了 2017 年諾貝爾經濟學獎。
 
  建議五
 
  制定標準,跟蹤系統(tǒng)整個生命周期的起源、開發(fā)過程及訓練數據集的使用情況。
 
  為了更好地了解和監(jiān)督偏差以及代表性偏差(representational skews)的問題,這條建議是非常有必要的。除卻更好地記錄訓練數據集的創(chuàng)建和維護過程外,AI 偏差領域的社會科學家和測量研究人員還應該繼續(xù)檢驗現有的訓練數據集,并努力理解可能已存在實際工作中的潛在盲區(qū)和偏差。
 
  AI 依賴大規(guī)模數據來發(fā)現模式并作出預測。這些數據反映了人類歷史,但也不可避免地反映了訓練數據集的偏見和成見。機器學習技術對于提取統(tǒng)計模式很拿手,但往往在概括常見案例的過程中忽略了不同的異常值,這就是為什么不根據數據表面價值進行偏差研究的重要原因。這種研究要從理解 AI 系統(tǒng)的數據從哪里開始,并尋蹤這些數據在系統(tǒng)中如何使用,還要隨著時間推移來驗證給定的數據集。理解這一點,人們方能更好了解數據中反應的錯誤與偏差,從而開發(fā)出能在數據的開發(fā)和采集中識別這種情況并減輕其錯誤的方法。
 
  建議六
 
  超越狹隘的技術邊界,跨學科發(fā)展 AI 偏差研究和緩解策略的研究。
 
  偏差問題由來已久,是一個結構性的問題,解決這個問題的必要途徑之一就是深度的跨學科研究。研究人員試圖找出能夠一了百了的徹底解決的方法,殊不知這嚴重低估了這個問題在社會層面中的復雜性。須知在教育、醫(yī)療保健、刑事司法等領域中,偏差問題和平等運動的遺產都有自己的歷史和實踐。不結合相應的領域專業(yè)知識,就不能徹底解決偏差問題。要解決偏差問題就需要跨學科的合作,并尊重不同學科的規(guī)律。
 
  最近,AI 和算法偏差領域的工作有喜人的跡象,但 AI Now 提醒人們不要向壁虛構,否則,很可能會出現系統(tǒng)在不知道如何優(yōu)化下卻被“優(yōu)化”的風險。計算機科學家可以通過與法律、醫(yī)學、社會學、人類學和傳播學等領域的專家合作,在 AI 數據形成及上下文集成之前,更好地理解數據地城的結構性不平等的問題。
 
  建議七
 
  亟需 AI 系統(tǒng)落地應用的審查標準與規(guī)范。
 
  制定這些標準與規(guī)范需要結合各種學科及聯盟的觀點,制定過程要以公開、嚴謹的學術態(tài)度進行,并定期審查和修訂。
 
  目前尚無確定的方法能夠衡量評估 AI 系統(tǒng)在其應用的社會領域中所產生的影響。鑒于目前尚處早期的 AI 系統(tǒng)已經給一些高風險的社會領域造成了影響,這是一個必須重視的問題,當務之急是制定 AI 領域的標準和方法。
 
  建議八
 
  AI 領域的公司、大學、會議及其他利益相關者應公布參與其工作的女性、少數族裔以及其他邊緣群體的人數。
 
  現在很多人認識到這一問題:目前 AI 領域研究人員缺乏多樣性,但該問題的嚴重性缺乏細粒度數據的論證。為了建立真正包容的工作場所,需要對科技行業(yè)的工作文化進行更深層次的評估,這就需要數據的支撐,而不是僅僅多雇傭女性和少數族裔就完事。
 
  創(chuàng)造 AI 系統(tǒng)的人本身持有的假設和觀點勢必會影響到 AI 系統(tǒng)。AI 的開發(fā)人員多為男性白人,有著相似的教育背景。目前已有證據表明這種情況會造成問題,如語音助手“聽不懂”女性聲音、AI 助手無法提供有關婦女健康的信息等。文化的多樣性研究在一般科技領域有一定的進展,但在 AI 領域的成果卻寥寥無幾。如果 AI 要向安全、公平、能夠廣泛應用的方向發(fā)展,人們就不能只關注多樣性和包容性,還要確保 AI 公司的文化是歡迎文化女性、少數族裔以及其他邊緣群體的。
年度研究報告:為AI領域提供的十條建議
  建議九
 
  AI 行業(yè)應聘請計算機科學與工程以外的學科專家,并確保他們擁有決策權。
 
  隨著 AI 在不同的社會和機構領域的應用日增月益,影響越來越多的高風險決策,人們必須努力將社會科學家、法律學者和其他領域的專家結合起來,共同指導 AI 的創(chuàng)建與整合,形成長期的實踐規(guī)范。
 
  正如人們不希望讓律師去優(yōu)化深度神經網絡一樣,人們也不應該讓 AI 研究人員能夠成為刑事司法專家。同理,對于所有需要整合信息技術的其他社會領域亦如此。因此,人們需要法律、健康、教育等領域的專家參與進來,幫助領導決策,確保 AI 不會幼稚地低估該領域的復雜流程、歷史和環(huán)境。
 
  建議十
 
  AI 領域需要嚴格監(jiān)督和問責機制,確保 AI 領域棄舊圖新。
 
  旨在引導人力資源領域的道德守則應附有強有力的監(jiān)督和問責機制。需要進一步開展工作,就如何將高層次的倫理原則和最佳做法準則與日常開發(fā)過程,促銷和產品發(fā)布周期進行實質性聯系。
 
  一些計算機行業(yè)團體機構正在制定道德守則,以確保 AI 開發(fā)的安全與平等。然而,這些做法都是出于團隊自愿,一般只有相對高端的組織才會將要求 AI 開發(fā)人員將公眾利益放在較高的優(yōu)先級。但是,共同利益如何決定?將由誰決定?除去由誰代表公眾利益這一問題外,AI 代碼在道德方面還要結合明確的問責機制,還須意識到 AI 行業(yè)在激勵模式和權力分配方面存在不對稱的情況。
 
  譯者感言:
 
  AI 最大的問題是人們無法精確地解釋 AI 系統(tǒng)為何做出那樣的決定,沒有辦法解開它的蓋子,窺視內部的工作場景,我們只能選擇相信它。這就為我們帶來了巨大的挑戰(zhàn)。我們該如何相信 AI 呢?這也是全世界公眾普遍擔憂的問題之一。哈佛法學院互聯網法律教授 Jonathan Zittrain 曾經說:“在技術幫助下,我們的系統(tǒng)變得越來越復雜,我很擔心人類的自主性被減少。如果我們設置了系統(tǒng),然后將其忘諸腦后,系統(tǒng)的自我演變帶來的后果可能讓我們后悔莫及。對此,目前還沒有明確的道德層面上的考慮。”
 
  如果我們能夠制定行業(yè)標準和道德標準,并全面了解 AI 存在的風險,然后建立以倫理學家、技術專家以及企業(yè)領導人為核心的監(jiān)管機制非常重要。這是利用 AI 為全人類謀福利的最佳方式。人工智能的潛力與威脅,其實一直都取決于人類自己。
 
 
更多>相關資訊
0相關評論

推薦圖文
推薦資訊
點擊排行