国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

目前,人類為 AI 制定的道德框架很失敗

   日期:2017-11-08     來源:36氪    作者:dc136     評(píng)論:0    
標(biāo)簽: 人工智能
   前不久,一個(gè)名為AI Now的新研究機(jī)構(gòu)發(fā)布了報(bào)告呼吁,要進(jìn)一步提高人工智能對(duì)社會(huì)影響的關(guān)注度。在這個(gè)報(bào)告發(fā)布之后,Wired記者Scott Rosenberg對(duì)該研究機(jī)構(gòu)的創(chuàng)始人之一Kate Crawford進(jìn)行了訪談。進(jìn)一步挖掘了該報(bào)告背后傳遞的想法。Kate Crawford認(rèn)為,在人工智能成為一種災(zāi)難之前,必須要將其安放好。
目前,人類為 AI 制定的道德框架很失敗
  Kate Crawford,AI Now創(chuàng)始人之一。
 
  關(guān)于人工智能的道德問題,并不乏報(bào)道。但大多數(shù)都是輕量級(jí)的——充滿了關(guān)于“公私合作”、關(guān)于把人放在第一位之類的陳詞濫調(diào)。他們不承認(rèn)人工智能創(chuàng)造出的社會(huì)困境有多棘手,也不承認(rèn)解開這些難題有多么困難。但AI Now研究所(一家位于紐約大學(xué)的新研究機(jī)構(gòu))的新報(bào)告并非如此。報(bào)告指出,科技行業(yè)正以一種不容置疑的態(tài)勢(shì),競(jìng)相使用人工智能來重塑社會(huì),這并不會(huì)帶來任何可靠和公平的結(jié)果。
 
  兩周前發(fā)布的這份報(bào)告是由Kate Crawford和Meredith Whittaker完成,他們是AI Now的聯(lián)合創(chuàng)始人。Crawford、Whittaker和他們的合作者在一個(gè)密集但易于獲得的35頁報(bào)告中列出了研究議程和政策路線圖。他們的結(jié)論并不是胡說八道:他們說,到目前為止,我們將人工智能保持在道德標(biāo)準(zhǔn)上的努力是失敗的。
 
  他們寫道:“人工智能的新倫理框架需要超越個(gè)人責(zé)任,在設(shè)計(jì)和使用人工智能的過程中,讓強(qiáng)大的工業(yè)、政府和軍事利益承擔(dān)責(zé)任。”當(dāng)科技巨頭開發(fā)人工智能產(chǎn)品時(shí),“用戶同意、隱私和透明度往往被忽視,而只專注于聚合數(shù)據(jù),為利潤(rùn)驅(qū)動(dòng)的商業(yè)模式服務(wù)……”與此同時(shí),在警務(wù)、教育、醫(yī)療和其他環(huán)境中引入人工智能系統(tǒng),在這些環(huán)境中,算法的失誤可能會(huì)毀掉一個(gè)人的生活。有什么我們可以做的嗎?本周,Crawford與我們一起討論了為什么人工智能的道德規(guī)范仍然一團(tuán)糟,以及采取什么樣的實(shí)際步驟可能改變這一局面。
 
  Scott Rosenberg(下文略):在新報(bào)告的最后,你直截了地方說,“當(dāng)前為人工智能的道德規(guī)范制定的框架正在失敗。”這聽起來很可怕。
 
  Kate Crawford(下文略):很多人都在談?wù)撐覀兪侨绾翁岢鲞@個(gè)領(lǐng)域的道德規(guī)范的。但仍然沒有一個(gè)能夠落地的。包括IEEE,Asilomar,以及其他一些組織都帶頭做了很多的工作。我們現(xiàn)在看到的是高層次原則之間的鴻溝,和大規(guī)模機(jī)器學(xué)習(xí)系統(tǒng)日常開發(fā)的實(shí)際情況。這顯然是非常重要且真實(shí)存在的。
 
  我們閱讀了過去兩年出版的所有關(guān)于人工智能和算法系統(tǒng)的道德準(zhǔn)則。然后我們研究了理想和實(shí)際情況之間的區(qū)別?,F(xiàn)在最迫切需要的是,這些道德準(zhǔn)則伴隨著非常強(qiáng)大的問責(zé)機(jī)制。我們可以說,我們希望人工智能系統(tǒng)遵循最高的道德原則,但我們必須確保有某種利害關(guān)系。通常,當(dāng)我們談?wù)摰赖乱?guī)范時(shí),我們會(huì)忘記談?wù)摍?quán)力。人們往往會(huì)有最好的意圖。但我們看到的是,人們?nèi)狈?duì)真正的權(quán)力不對(duì)稱如何影響著不同群體的思考。
 
  這份報(bào)告透露出來的基礎(chǔ)信息似乎是,我們可能發(fā)展得太快了,以至于我們沒有花時(shí)間來做這件事。
 
  我可能會(huì)用不同的方式來表達(dá)。時(shí)間是一個(gè)因素,但優(yōu)先級(jí)也是一個(gè)因素。如果我們花很多的錢,聘請(qǐng)了許多人去思考和研究這些體系帶來的廣泛的社會(huì)和經(jīng)濟(jì)影響,那么我們就會(huì)有一個(gè)更強(qiáng)大的基礎(chǔ)。實(shí)際上,誰在創(chuàng)造行業(yè)標(biāo)準(zhǔn)說,好,這是你需要經(jīng)過的基本的預(yù)發(fā)布試驗(yàn)系統(tǒng);這是你應(yīng)該如何公開展示你怎樣在不同類型的人群中測(cè)試你的系統(tǒng);這些是你應(yīng)該如何準(zhǔn)備在你的系統(tǒng)或產(chǎn)品背后建立的信心界限?這些都是我們?cè)谒幬餃y(cè)試和其他關(guān)鍵任務(wù)系統(tǒng)中所使用的東西,即使是在城市的水安全問題上也是如此。
 
  但只有當(dāng)我們看到它們失敗時(shí),例如在像弗林特、密歇根這樣的地方,我們才意識(shí)到我們對(duì)這些基礎(chǔ)設(shè)施的依賴程度,對(duì)所有人來說都是安全的。就人工智能而言,我們還沒有這些系統(tǒng)。我們需要訓(xùn)練人們?nèi)y(cè)試人工智能系統(tǒng),并創(chuàng)造出這些安全與公平的機(jī)制。這是我們現(xiàn)在可以做的事情。在將這些系統(tǒng)部署到人類身上之前,我們需要在安全與公平的優(yōu)先次序上增加一些緊迫感。
 
  在人工智能成為災(zāi)難之前,你想要把它安放好。
 
  我認(rèn)為我們必須這樣做。
 
  目前科技行業(yè)的格局是由幾家大公司主導(dǎo)的。為什么會(huì)這樣?
 
  這是核心問題。作為這個(gè)領(lǐng)域的研究人員,我會(huì)去了解我所知道的工具。實(shí)際上,我們可以通過提高研究的水平和嚴(yán)謹(jǐn)程度來做大量的工作。我們認(rèn)為,我們可以做出改變:在這些系統(tǒng)的設(shè)計(jì)中,誰能獲得一席之地?目前,它是由工程和計(jì)算機(jī)科學(xué)專家推動(dòng)的,他們?cè)O(shè)計(jì)的系統(tǒng)涉及從刑事司法、醫(yī)療保健到教育等方方面面。但是,就像我們不希望聯(lián)邦法官優(yōu)化神經(jīng)網(wǎng)絡(luò)一樣,我們也不應(yīng)該指望一個(gè)工程師能理解刑事司法系統(tǒng)的運(yùn)行機(jī)制。
 
  因此,我們有一個(gè)非常強(qiáng)烈的建議,即人工智能行業(yè)應(yīng)該從計(jì)算機(jī)科學(xué)和工程以外的領(lǐng)域聘請(qǐng)專家,并確保這些人擁有決策權(quán)。如果你已經(jīng)設(shè)計(jì)了一個(gè)系統(tǒng),而你已經(jīng)準(zhǔn)備好部署它,那么僅僅在最后引入咨詢顧問是遠(yuǎn)遠(yuǎn)不夠的。如果你不通過刑事司法體系或預(yù)見性監(jiān)管的方式來考慮系統(tǒng)偏見的傳播,那么很有可能的是,你正在設(shè)計(jì)一個(gè)基于歷史數(shù)據(jù)的系統(tǒng),將會(huì)使這些偏見延續(xù)下去。
 
  解決這一問題不僅僅是技術(shù)上的問題。這不是僅僅通過調(diào)整數(shù)字來試圖消除系統(tǒng)的不平等和偏見的問題。
 
  這是一種“內(nèi)部重組”的計(jì)劃。但是現(xiàn)在,情況看起來更像是研究人員坐在外面,他們得到了一些數(shù)據(jù),然后他們得出了這些爆炸性的研究結(jié)果表明事情有多糟糕。這可能會(huì)引起公眾的關(guān)注,并贏得媒體的報(bào)道,但你是如何從內(nèi)部改變事物的呢?
 
  當(dāng)然,當(dāng)我們思考人工智能行業(yè)的數(shù)據(jù)能力和來源時(shí),這并不難。我們應(yīng)該把這看作是一個(gè)底線安全問題。你會(huì)影響一個(gè)人獲得工作,擺脫監(jiān)獄,進(jìn)入大學(xué)等方面的能力。至少,我們應(yīng)該對(duì)這些制度如何變得更公平、以及這些決策對(duì)人們生活的重要性有深入的了解。
 
  我不認(rèn)為這是個(gè)很大的要求。我認(rèn)為,這些系統(tǒng)中最負(fù)責(zé)任的生產(chǎn)商確實(shí)希望它們能很好地工作。這是一個(gè)開始用強(qiáng)有力的研究和強(qiáng)有力的安全門檻來支持這些良好意愿的問題。這并不超出我們的能力范圍。如果人工智能將以如此快的速度進(jìn)入我們的核心社會(huì)機(jī)構(gòu),我認(rèn)為這是絕對(duì)必要的。
 
  你是微軟研究院的成員,而Meredith Whittaker則隸屬于谷歌。你難道不能走到合適的會(huì)議上說,“我們?yōu)槭裁床蛔鲞@個(gè)?”
 
  毫無疑問,我和Meredith在公司都有一席之地,這就是我們會(huì)提出這些建議的一部分原因。我們知道這些系統(tǒng)是如何建立起來的,我們可以明白一些積極的步驟,可以讓它們變得更安全、更公平。這也是為什么我們認(rèn)為在一個(gè)獨(dú)立的環(huán)境中工作是非常重要的,我們也可以在科技公司之外做研究,幫助這些系統(tǒng)盡可能地感受到它們將要進(jìn)入的復(fù)雜的社會(huì)領(lǐng)域。
 
  我們的報(bào)告花了六個(gè)月的時(shí)間,這不僅僅是一群人說,嘿,這是我們的想法和建議。它來自于與頂級(jí)研究者的深入討論。這些建議是可以實(shí)現(xiàn)的,但并不容易。這也不是像人們?nèi)訜熿F彈,說:“一切都很好,我們已經(jīng)處理好了。”我們認(rèn)為,干預(yù)是必要的,而且是緊急的。
 
  在過去的18個(gè)月里,我們看到人們對(duì)這些圍繞著偏見和機(jī)器學(xué)習(xí)的問題興趣激增,但人們通常只把它當(dāng)作純粹的技術(shù)問題來理解。而不是認(rèn)為,要理解這一點(diǎn),我們需要拓寬視野。想想我們是如何理解這些系統(tǒng)偏見的,以及如果我們沒有意識(shí)到這一點(diǎn),這將會(huì)一直延續(xù)下去。
 
  五年前,有一種說法認(rèn)為,數(shù)據(jù)是中立的。但事實(shí)證明,情況并非如此。但現(xiàn)在有了新的說法——數(shù)據(jù)可以中立化。這兩個(gè)說法都不正確。數(shù)據(jù)將永遠(yuǎn)銘記歷史的印記。在這些數(shù)據(jù)集里,記載著人類的歷史。因此,如果我們想要用它來訓(xùn)練一個(gè)系統(tǒng)、提出建議或自主做出決定,我們需要深刻地意識(shí)到歷史是如何運(yùn)作的。這比純粹的技術(shù)問題要大得多。
 
  說到歷史,在奧巴馬執(zhí)政的末期,這種研究得到了政府的大量支持。既然特朗普政府似乎不感興趣,你現(xiàn)在對(duì)這個(gè)項(xiàng)目有多樂觀?
 
  政府絕對(duì)應(yīng)該密切關(guān)注這些問題,然而,這不僅僅是美國(guó)的問題。目前歐洲正在發(fā)生的事情至關(guān)重要——印度和中國(guó)也一樣。歐盟嚴(yán)格的新數(shù)據(jù)隱私規(guī)定將于明年5月開始實(shí)施。我們將繼續(xù)做我們認(rèn)為會(huì)對(duì)未來指導(dǎo)政策產(chǎn)生影響的研究。只要我們的決定什么時(shí)候、在什么地方被采納,這遠(yuǎn)高于我們的付出。但我們現(xiàn)在能做的是盡最大的努力,這樣當(dāng)人們做出關(guān)于系統(tǒng)安全、權(quán)利和自由,或者勞動(dòng)和自動(dòng)化的決定時(shí),他們就可以基于強(qiáng)有力的實(shí)證研究來制定政策。
 
  你還需呼吁在創(chuàng)造人工智能的團(tuán)隊(duì)中有更大的多樣性,而不僅僅是在專業(yè)領(lǐng)域。
 
  它遠(yuǎn)比招聘更重要——我們必須談?wù)撀殘?chǎng)文化,我們必須談?wù)勥@些關(guān)于包容性的問題現(xiàn)在是多么困難。尤其是在James Damore的備忘錄之后,我們需要做多少工作,從來都不是那么明顯。如果你的辦公室都是同質(zhì)的,他們都有相同的生活經(jīng)歷和教育背景,而且他們都很富有,他們對(duì)世界的看法將會(huì)反映他們已經(jīng)知道的事情。當(dāng)我們?cè)谥圃炷軌蛴绊懭绱吮姸嗖煌巳旱南到y(tǒng)時(shí),這可能是危險(xiǎn)的。因此,我們認(rèn)為,多樣性和包容性至關(guān)重要,而且這也不僅僅是一組在合適的時(shí)間被拿出來說和調(diào)用的詞匯。
 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行