国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

AI將非洲人標(biāo)為大猩猩 創(chuàng)建無偏見機(jī)器人有多難?

   日期:2016-11-10     來源:網(wǎng)易科技    作者:zy     評論:0    
標(biāo)簽:
   據(jù)外媒報(bào)道,隨著人工智能(AI)與機(jī)器學(xué)習(xí)技術(shù)的日益成熟,它們被用于解決復(fù)雜問題的潛力也逐漸顯現(xiàn)出來,我們甚至有點(diǎn)兒期待,希望機(jī)器人能在人類失敗的領(lǐng)域取得突破,即在決策時(shí)拋開個(gè)人偏見。
 
  但是最近出現(xiàn)的許多案例顯示,就像所有顛覆性技術(shù)那樣,機(jī)器學(xué)習(xí)被引入的同時(shí),也出現(xiàn)了許多意想不到的挑戰(zhàn),有時(shí)候甚至產(chǎn)生錯誤、令人討厭的、冒犯性的后果,與人類社會信奉的道德和倫理標(biāo)準(zhǔn)截然不符。
 
  這些故事聽起來可能很有意思,但它們卻促使我們反思AI技術(shù)對未來產(chǎn)生的影響。將來,機(jī)器人和AI將承擔(dān)起更重要的責(zé)任,甚至將為它們做出的錯誤決定負(fù)責(zé)。
 
  在其核心領(lǐng)域,機(jī)器學(xué)習(xí)利用算法分析數(shù)據(jù)、提取模式以及學(xué)習(xí)和預(yù)測,并會基于收集到的見解做出決定。它已經(jīng)成為我們?nèi)粘I钪惺褂玫脑S多技術(shù)的基石,比如搜索引擎、面部識別應(yīng)用以及數(shù)字助理等。機(jī)器學(xué)習(xí)算法獲得的數(shù)據(jù)越多,它就會變得越聰明。這也就是科技公司千方百計(jì)收集更多用戶和消費(fèi)者數(shù)據(jù)的原因。
 
  但是最終,機(jī)器學(xué)習(xí)只會保持其獲得的數(shù)據(jù)那樣聰明。這其中存在一個(gè)問題,因?yàn)橥瑯颖挥糜谟?xùn)練機(jī)器學(xué)習(xí)算法的數(shù)據(jù),也可能會讓它變得邪惡或存在偏見。就像所有孩童那樣,機(jī)器學(xué)習(xí)算法往往會選擇迎合其開發(fā)者的品味和偏見。更復(fù)雜的是,許多公司都以非常隱秘的方式運(yùn)行內(nèi)部算法,并把它們視為商業(yè)機(jī)密。
 
  機(jī)器學(xué)習(xí)初創(chuàng)企業(yè)Beauty.ai今年舉行了世界上首場AI驅(qū)動的選美大賽。超過6000人遞交了自己的照片,AI通過對稱性、皺紋等因素評估這些人的魅力。這項(xiàng)比賽的原意是減少人類裁判的社會偏見,但結(jié)果令人感到失望。44位獲勝者中,絕大多數(shù)都是白人,只有少數(shù)亞洲人,深色皮膚人種的獲勝者僅有1人。1名研究人員解釋稱,問題是用于訓(xùn)練算法的照片樣本在種族方面存在不平衡性。
 
  這并非機(jī)器算法首次出現(xiàn)偏見問題。今年年初,一種語言處理算法被發(fā)現(xiàn),在處理艾米麗、馬特等聽起來像白人的名字時(shí),顯然比處理賈馬爾、埃博尼等黑人名字時(shí)更愉快。
 
  此外,微軟此前被迫關(guān)閉了其聊天機(jī)器人Tay。它被設(shè)計(jì)模仿十幾歲女孩的行為,卻被發(fā)現(xiàn)滿口臟話。Tay原本被期望提取用戶評論,通過處理它們學(xué)習(xí)如何做出個(gè)性化回應(yīng)。但是用戶似乎對教授它種族歧視和納粹言論更感興趣。
 
  可是,如果這些發(fā)生在敏感情況下,比如某人的生命或自由受到威脅時(shí),將會如何?ProPublica5月份的研究顯示,在評估未來犯罪傾向時(shí),佛羅里達(dá)州執(zhí)法機(jī)構(gòu)使用的算法對非洲裔的評分更高。
 
  有關(guān)這類機(jī)器學(xué)習(xí)算法存在偏見的例子不勝枚舉,包括谷歌算法將非洲裔標(biāo)注為大猩猩,廣告投放引擎更少向女性展示高薪職位,新聞算法推廣假新聞和粗俗故事等。
 
  在傳統(tǒng)軟件中,確定某個(gè)失誤是用戶錯誤還是設(shè)計(jì)缺陷非常簡單。但是機(jī)器學(xué)習(xí)并不那么透明,最大的挑戰(zhàn)之一就是難以確定責(zé)任。開發(fā)機(jī)器學(xué)習(xí)軟件與傳統(tǒng)編碼完全不同,訓(xùn)練算法與編寫代碼同樣重要。即使開發(fā)者也無法精確預(yù)測機(jī)器將會做出何種決定,有時(shí)候也會對結(jié)果感到驚訝。
 
  當(dāng)Facebook被譴責(zé)在“趨勢主題”模塊中存在政治偏見時(shí),事情變得更加復(fù)雜,因?yàn)檫@個(gè)模塊部分由機(jī)器學(xué)習(xí)驅(qū)動。當(dāng)美國共和黨總統(tǒng)提名人唐納德·特朗普(Donald Trump)譴責(zé)谷歌調(diào)整其搜索引擎結(jié)果,試圖抑制有關(guān)民主黨總統(tǒng)提名人希拉里·克林頓(Hillary Clinton)的負(fù)面新聞時(shí),做出透明解釋和證明機(jī)器錯誤的確有點(diǎn)兒難。
 
  當(dāng)關(guān)鍵決定權(quán)被賦予AI時(shí),事情將會變得更加敏感。舉例來說,如果無人駕駛汽車撞倒1個(gè)行人,誰將被追究責(zé)任?司機(jī)(更精確地說車主)還是機(jī)器學(xué)習(xí)算法的開發(fā)者?
 

 
  從數(shù)據(jù)庫中根除這些偏見是開發(fā)公正的機(jī)器學(xué)習(xí)算法的關(guān)鍵,但是開發(fā)平衡數(shù)據(jù)庫是非常復(fù)雜的任務(wù)。目前還沒有任何相關(guān)規(guī)則或標(biāo)準(zhǔn),可以用于評估用于訓(xùn)練機(jī)器學(xué)習(xí)算法的數(shù)據(jù)。有時(shí)候,研究人員利用和分享現(xiàn)成的框架和數(shù)據(jù)庫,盡管里面存在各種偏見。
 
  一個(gè)解決方案就是創(chuàng)造可共享的、受到監(jiān)管的數(shù)據(jù)庫,它不歸任何單一實(shí)體所有,從而可預(yù)防任何人單方面操作數(shù)據(jù)。在這方面的顯著努力就是AI合作組織(Partnership on Artificial Intelligence)的成立,F(xiàn)acebook、亞馬遜、谷歌、IBM、微軟以及機(jī)器學(xué)習(xí)創(chuàng)新領(lǐng)域的其他公司嘗試解決AI和機(jī)器學(xué)習(xí)增長帶來的恐懼。這個(gè)組織的目標(biāo)包括,解決AI的倫理問題,確保AI被公開應(yīng)用前接受多元化審視。
 
  另一個(gè)有趣的努力是伊隆·馬斯克(Elon Musk)創(chuàng)建的AI公司Open AI,其目標(biāo)是令A(yù)I研究變得更透明,防止它變成作惡工具。
 
  將來有一天,或許機(jī)器人會變得足夠聰明,可以解釋自己的行為,并糾正它們的錯誤。但我們據(jù)此目標(biāo)依然有很長的路要走。到那時(shí),人類的責(zé)任將是預(yù)防訓(xùn)練AI的人類負(fù)面傾向被無限擴(kuò)大。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點(diǎn)擊排行