国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

人工智能或?qū)⑿纬善娝季S

   日期:2019-09-25     來源:千家網(wǎng)    作者:阿芬     評論:0    
標(biāo)簽: 英國 人工智能 偏見
  英國警方擔(dān)心,在他們的行動中使用人工智能可能會導(dǎo)致越來越多的偏見和對自動化的過度依賴。
 
  英國政府咨詢機(jī)構(gòu)數(shù)據(jù)倫理與創(chuàng)新中心(Centre for Data Ethics and Innovation)委托進(jìn)行的一項研究警告稱,警方認(rèn)為人工智能可能“放大”偏見。
 
  英國皇家聯(lián)合軍種研究所(RUSI)就這項研究采訪了50名專家,其中包括高級警官。
 
  種族定性仍然是一個大問題。被攔下的黑人青年比白人青年多。RUSI采訪的專家們擔(dān)心,如果他們根據(jù)現(xiàn)有的警察數(shù)據(jù)進(jìn)行訓(xùn)練,這些人類偏見可能會進(jìn)入算法。
 
  報告還指出,來自弱勢群體的人傾向于使用更多的公共交通工具。由于數(shù)據(jù)可能是從使用公共交通工具中收集的,這增加了這些人被標(biāo)記的可能性。
 
  人臉識別算法的準(zhǔn)確性經(jīng)常受到質(zhì)疑。今年早些時候,算法正義聯(lián)盟(Algorithmic Justice League)測試了所有主要技術(shù),發(fā)現(xiàn)算法尤其難以對付膚色較深的女性。
 
  美國公民自由聯(lián)盟(American Civil Liberties Union)也發(fā)布了一份類似的報告,重點關(guān)注亞馬遜的reko人臉識別系統(tǒng)。當(dāng)與國會議員進(jìn)行測試時,它往往錯誤地標(biāo)記了膚色較深的人。
 
  這兩項研究結(jié)果都表明,如果今天公開推廣這種技術(shù),可能會造成毀滅性的社會影響。很高興聽到英國當(dāng)局至少意識到了潛在的復(fù)雜性。
 
  RUSI報告說,參與這項研究的專家希望看到為可接受的技術(shù)使用制定更清晰的指導(dǎo)方針。
 
  他們希望這將為警察部隊提供信心,以一種安全、負(fù)責(zé)任的方式采用這種可能有益的新技術(shù)。
 
  助理警長喬納森·德雷克告訴BBC新聞:“多年來,警察部隊一直在尋求創(chuàng)新,利用技術(shù)來保護(hù)公眾,防止傷害,我們將繼續(xù)探索實現(xiàn)這些目標(biāo)的新方法。”
 
  “但我們的價值觀意味著,我們是通過同意來監(jiān)督的,因此,每當(dāng)我們使用新技術(shù)時,我們都會咨詢相關(guān)方,以確保任何新策略都是公平、合乎道德的,并為公眾帶來最佳效果。”
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行