国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

白色機(jī)器人可能未來會(huì)在外國被告涉嫌種族歧視!

   日期:2019-08-21     來源:中國機(jī)器人網(wǎng) 昏昏    作者:阿芬     評(píng)論:0    
標(biāo)簽: 機(jī)器人 種族歧視
  前置性研究一直是社會(huì)學(xué)家們致力于去做的事,我們總在提中國機(jī)器人研究與國外的差距,其實(shí)這不單單在于技術(shù),也在長遠(yuǎn)性的對(duì)其可能造成的社會(huì)影響,和可能造成倫理道德上問題的思考。
 
  近日,新西蘭人機(jī)界面技術(shù)實(shí)驗(yàn)室的研究人員進(jìn)行了一項(xiàng)“關(guān)于機(jī)器人和種族主義”的研究,這項(xiàng)研究報(bào)告歷經(jīng)坎坷最后由坎特伯雷大學(xué)出版,研究表明:人類認(rèn)為長得像人的機(jī)器人也有種族之分,因此,他們對(duì)白色和黑色機(jī)器人也具有種族偏見。
 

 
  顏色歧視的發(fā)現(xiàn)
 
  不論是電影還是現(xiàn)實(shí)生活中的機(jī)器人,我們都會(huì)發(fā)現(xiàn),機(jī)器人大多是白色的。例如威爾·史密斯的電影《我,機(jī)器人》、電影《機(jī)器人總動(dòng)員》里的Eve、本田的機(jī)器人Asimo、優(yōu)必選的機(jī)器人Walker、波士頓動(dòng)力的機(jī)器人Atlas,甚至是NASA的機(jī)器人Valkyrie,這些全部都是有著白色的外觀。而一些現(xiàn)實(shí)生活中的人形機(jī)器人,也是仿照著白人的膚色,比如以奧黛麗·赫本為原型的首個(gè)獲得公民身份的機(jī)器人索菲亞。
 
  而根據(jù)一項(xiàng)新的研究,這種白色機(jī)器人盛行的原因可能是種族主義。研究人員發(fā)現(xiàn),這些顏色可能會(huì)觸發(fā)社會(huì)信號(hào),決定人類對(duì)其他人或者機(jī)器人的反應(yīng)和行為。
 
  首席研究員Christoph Bartneck向美國有線電視新聞網(wǎng)解釋道:“對(duì)黑色機(jī)器人的偏見是對(duì)非裔美國人的偏見的結(jié)果。令人驚訝的是,以前從未與機(jī)器人有過互動(dòng)行為的人也對(duì)機(jī)器人表現(xiàn)出了種族偏見。”
 
  研究人員認(rèn)為這個(gè)問題需要盡快解決。這個(gè)研究表明:假如機(jī)器人成為老師、朋友或者照護(hù)者,那么這些角色一旦被種族化的白色機(jī)器人占據(jù),這將會(huì)是一個(gè)很嚴(yán)重的問題。很顯然,研究中實(shí)驗(yàn)使用的是機(jī)器人,但是它們具有和人類一樣的四肢和頭部,膚色則是白色和黑色。
 

 
  而在搜索引擎上搜索“機(jī)器人”這個(gè)詞的相關(guān)圖片,你也不太會(huì)看到別的顏色,就像研究中指出的那樣。研究人員認(rèn)為,白人機(jī)器人的比例過高可能會(huì)對(duì)其他種族的認(rèn)知造成傷害。Bartneck指出,機(jī)器人設(shè)計(jì)師是來自世界各地的,但他們?nèi)匀粫?huì)最先選擇設(shè)計(jì)白色外觀的機(jī)器人。
 
  Bartneck告訴《The Next Web》:“人形機(jī)器人應(yīng)該代表人類的多樣性。想象一下全是白色皮膚的芭比娃娃;想象一下在非洲或者印度工作的機(jī)器人全是白色的;再設(shè)想一下接管涉及權(quán)威工作的機(jī)器人也是白色的。很顯然,這會(huì)引起對(duì)帝國主義和白人霸權(quán)的擔(dān)憂。機(jī)器人不僅僅是機(jī)器,它們還代表了人類。”
 
  在第二項(xiàng)研究中,HIT Lab NZ團(tuán)隊(duì)增加了淺棕色的機(jī)器人,他們發(fā)現(xiàn),隨著種族多樣性的增加,參與者對(duì)機(jī)器人的種族偏見逐漸消失。這可能意味著機(jī)器人的多樣化可能會(huì)導(dǎo)致人類減少對(duì)機(jī)器人的種族偏見。
 
  Bartneck告訴美國有線電視新聞網(wǎng):“就像芭比娃娃有不同的膚色一樣,我們也希望機(jī)器人不僅僅是白色的。”“我們希望本研究能夠鼓勵(lì)機(jī)器人設(shè)計(jì)師們創(chuàng)造出代表他們?nèi)后w多元化特征的機(jī)器人,沒有必要把所有機(jī)器人都設(shè)計(jì)成白色。”Bartneck如是說。
 
  但不少人或許會(huì)對(duì)這樣的研究嗤之以鼻。畢竟,如果我們?cè)儐枡C(jī)器人制造公司,為什么要將他們的機(jī)器人設(shè)定為白色,他們十有八九會(huì)告訴你:因?yàn)榘咨鞣N家庭裝飾都很百搭呀!
 
  實(shí)際上,Bartneck的文章在投稿期間就收到了不小的阻力,這篇提交給HRI會(huì)議的論文經(jīng)歷了空前的審查過程。論文大約有5000個(gè)詞,但收到的評(píng)論就有大約有6000個(gè)詞。在會(huì)議計(jì)劃委員會(huì)開會(huì)期間,大家對(duì)文章進(jìn)行了詳細(xì)的討論,共有9名評(píng)審員被要求對(duì)該研究進(jìn)行評(píng)估。他們的文章被讀者反復(fù)審視,有些人指責(zé)作者在聳人聽聞。
 
  人工智能的種族歧視
 
  此前《每日郵報(bào)》曾報(bào)道,來自英國和美國的計(jì)算機(jī)科學(xué)和心理學(xué)專家表示,經(jīng)過復(fù)制、識(shí)別和學(xué)習(xí)其它機(jī)器人的行為,自主機(jī)器人竟然可以產(chǎn)生偏見,有些算法甚至產(chǎn)生了種族歧視和性別歧視,也證明了其并非無的放矢。
 
  偏見和歧視是人類社會(huì)所特有的高級(jí)認(rèn)知,它需要人類意識(shí)和思維的支持才會(huì)產(chǎn)生。為了證明人工智能可以產(chǎn)生偏見,英美兩國科學(xué)家也曾進(jìn)行了一次計(jì)算機(jī)博弈模擬實(shí)驗(yàn)。實(shí)驗(yàn)中,一臺(tái)超級(jí)計(jì)算機(jī)控制上千個(gè)個(gè)體進(jìn)行博弈,并分析每個(gè)個(gè)體的給出的決策。實(shí)驗(yàn)結(jié)果表明,絕大多數(shù)個(gè)體都將資源分享給自己所在的群體,并且這一決策很快就被其它的個(gè)體學(xué)習(xí)運(yùn)用。
 

 
  科研人員還在另一項(xiàng)關(guān)于性別的研究中發(fā)現(xiàn),face++、微軟等眾多科技公司推出的人臉識(shí)別服務(wù)中存在性別歧視和種族歧視。實(shí)驗(yàn)數(shù)據(jù)表明,對(duì)于黑人女性,微軟在21%的情況下無法識(shí)別,而face++無法識(shí)別的概率更是高達(dá)35%,此外,這些系統(tǒng)普遍對(duì)白人男性表現(xiàn)的更好。
 
  因此,報(bào)道認(rèn)為,機(jī)器人制造和編程設(shè)計(jì)的人類程序員,在潛意識(shí)中帶有歧視意識(shí),從而表現(xiàn)在研究和編程過程中,這導(dǎo)致的直接結(jié)果就是對(duì)于白人機(jī)器人的重視程度更高,并且這一偏重也導(dǎo)致了機(jī)器人呈現(xiàn)的對(duì)于部分人類呈現(xiàn)的不友好行為。
 
  人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,研究的主要目標(biāo)是讓機(jī)器完成一些需要人類智慧才能解決的復(fù)雜問題,這就需要人工智能對(duì)人類的意識(shí)和思維過程進(jìn)行模擬。報(bào)道表示,正因如此,一些科學(xué)家才反對(duì)人工智能的研究,他們擔(dān)心人工智能某一天可能會(huì)進(jìn)化出完全的自主意識(shí),帶上某部分歧視,甚至對(duì)人類產(chǎn)生敵意,同時(shí)由人類設(shè)計(jì)的機(jī)器人,如果不經(jīng)控制,可能最后會(huì)成為毀滅人類的最佳工具。
 
  研究與分析
 
  《科技縱覽》雜志(IEEE Spectrum)中有這樣一段記載:Christoph Bartneck使用了“射手偏見”框架(shooter bias framework)進(jìn)行試驗(yàn)。在射手偏見研究中,參與者被賦予警察的角色,當(dāng)面對(duì)人們手持槍械或其他友好物體的圖像時(shí),他必須決定是否射擊。
 
  圖像僅顯示一瞬間,研究中的參與者來不及做出合理的思考,他們必須在不到一秒的時(shí)間內(nèi)采取行動(dòng)。若參與者在決定開槍時(shí)對(duì)黑色機(jī)器人(對(duì)比白色機(jī)器人)開槍更加快速,在決定對(duì)沒有武器的機(jī)器人不開槍時(shí)對(duì)白色機(jī)器人(對(duì)比黑色機(jī)器人)下決定更快速,我們就會(huì)認(rèn)為這位參與者對(duì)機(jī)器人存在種族偏見。
 
  而“射手偏見”研究顯示,無論圖像中出現(xiàn)的是人類還是機(jī)器人,與武裝的白人相比,參與者更快地射擊武裝的黑人;同時(shí)更快地避免射擊手無寸鐵的白人,而不是同樣解除武裝的黑人。這些發(fā)現(xiàn)說明了射手偏見既存在于人類之中,同時(shí)也存在于機(jī)器人之中。這種偏見明確表現(xiàn)了對(duì)黑人的種族歧視,更是將這種歧視自動(dòng)延伸至種族化為黑人的機(jī)器人。
 

 
  Christoph Bartneck表示:“我們?cè)谡{(diào)查中直接要求人們選擇“該機(jī)器人是什么種族”時(shí),只有11%的被調(diào)查者選擇了“不適用”選項(xiàng)。我們的隱性衡量標(biāo)準(zhǔn)證明了人們確實(shí)種族化機(jī)器人并據(jù)此調(diào)整他們的行為。我們調(diào)查的參與者顯示他們存在對(duì)機(jī)器人的種族偏見。”
 
  為什么重視顏色研究?
 
  Christoph Bartneck認(rèn)為,目前世界上許多工程師都忙于實(shí)現(xiàn)機(jī)器人基本功能,如行走與在所處環(huán)境中移動(dòng),這是他們最為關(guān)注的問題,以至于他們沒有那么重視研究所產(chǎn)生的社會(huì)影響。
 
  大部分時(shí)候,機(jī)器人的設(shè)計(jì)是由內(nèi)而外的,意味著各功能部件先被搭建并測試,最后再添加一個(gè)外殼包裝。至于這層包裝將如何影響人類使用者,或更寬泛地說,機(jī)器人整體將如何被其使用者所感知,絕大多數(shù)時(shí)候只有事后才會(huì)被想到。
 
  因此,幾乎沒有機(jī)器人創(chuàng)造者思考過種族歧視問題。多年來,人-機(jī)器人交互(HRI)社區(qū)的成員們?cè)趪L試更深理解人類與機(jī)器人是如何交互的。我們?cè)噲D幫助機(jī)器人創(chuàng)造者將機(jī)器人設(shè)計(jì)得與社會(huì)更加融合。種族歧視對(duì)人類與人類社會(huì)整體都正在造成大量傷害。
 
  今天,種族歧視依然真實(shí)地存在,黑人平權(quán)運(yùn)動(dòng)更加證明了這個(gè)問題的重要性與緊急性。與此同時(shí),我們將推出社交機(jī)器人,目的是與人類互動(dòng),融入人類社會(huì)。這些機(jī)器人將成為未來的護(hù)工,教育人員與陪伴者。
 
  Christoph Bartneck表示,現(xiàn)在幾乎沒有非白人外表的擬人機(jī)器人。大多數(shù)主流社交機(jī)器人研究平臺(tái),如Nao、Pepper與PR2,機(jī)器人均使用白色材料,并且看起來是白人。
 

 
  可以預(yù)見到,這種社交機(jī)器人種族多元性的匱乏會(huì)導(dǎo)致一系列問題以及其他領(lǐng)域中種族多元性的匱乏。我們根據(jù)各社會(huì)分類下的社會(huì)觀念導(dǎo)致的刻板印象去評(píng)價(jià)他人,歧視經(jīng)常是社會(huì)刻板印象的一種體現(xiàn)。
 
  結(jié)語
 
  “我們希望我們的研究能促使人類進(jìn)行反思,是什么社會(huì)與歷史因素導(dǎo)致了來自如此多元化的種族群體的工程師們幾乎只設(shè)計(jì)生產(chǎn)很容易被當(dāng)做白人的機(jī)器人,他們?yōu)楹紊形匆庾R(shí)到這一點(diǎn)。”Christoph Bartneck說道,“我們相信我們的發(fā)現(xiàn)將會(huì)幫助社交機(jī)器人設(shè)計(jì)上的多元化,這樣一來這項(xiàng)前景光明的科技不會(huì)受到種族偏見的影響。中東樣貌的機(jī)器人的出現(xiàn)以及日本慣以設(shè)計(jì)亞洲人樣貌的機(jī)器人都是這個(gè)方向上的重要進(jìn)步,尤其是因?yàn)檫@些機(jī)器人并非被刻意設(shè)計(jì)成豐富種族多元化的形象,而是機(jī)器人設(shè)計(jì)上的自然產(chǎn)物。”
 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行