国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

機(jī)器人也會(huì)造假、有偏見?原因在這兒

   日期:2016-09-08     來源:鎂客網(wǎng)    作者:zy     評(píng)論:0    
標(biāo)簽:
   導(dǎo)讀: 簡單來說,機(jī)器學(xué)習(xí)的原理就是用大量的數(shù)據(jù)對算法進(jìn)行訓(xùn)練,從而達(dá)到理解人、學(xué)習(xí)人的目的。從中我們可以知道,這其中最重要的就屬算法的“學(xué)習(xí)”過程。
 
  前段時(shí)間,F(xiàn)acebook將人類編輯解雇,并讓人工智能擔(dān)任熱門榜單的編輯。然而,在上任之后,該機(jī)器學(xué)習(xí)算法連續(xù)幾天將幾條不實(shí)新聞以及不雅視頻推上熱門榜單,其中包括宣稱??怂剐侣劤吹袅酥鞒秩薓egynKelly并稱其為“叛徒”,沒過多久此則新聞就得到了當(dāng)事人及相關(guān)人員辟謠。
 
  此外,在今年3月23日,微軟悄悄的推出了一款聊天機(jī)器人Tay。Tay最初是以一個(gè)清新可愛的少女形象出現(xiàn),但是由于她的算法設(shè)定是通過學(xué)習(xí)網(wǎng)友的對話來豐富自己的語料庫,很快她被網(wǎng)友充斥著激烈偏見的話語“帶壞”,變成了一個(gè)徹底的仇視少數(shù)族裔、仇視女性、沒有任何同情心的種族主義者。
 
  種種現(xiàn)象看來,機(jī)器學(xué)習(xí)也不是那么的完美,這到底是如何造成的?而且,在智能汽車領(lǐng)域,研究人員意圖將機(jī)器學(xué)習(xí)運(yùn)用到人工智能車載系統(tǒng)上,并讓其學(xué)會(huì)車主的駕駛習(xí)慣。但是,在看了上面的例子之后,為了打造更好的機(jī)器學(xué)習(xí)算法,我們應(yīng)該做些什么?
 

 
  為何機(jī)器學(xué)習(xí)總是出錯(cuò)?
 
  簡單來說,機(jī)器學(xué)習(xí)的原理就是用大量的數(shù)據(jù)對算法進(jìn)行訓(xùn)練,從而達(dá)到理解人、學(xué)習(xí)人的目的。從中我們可以知道,這其中最重要的就屬算法的“學(xué)習(xí)”過程。
 
  以Tay的偏見為例,關(guān)于這個(gè),在一個(gè)月前,谷歌的一個(gè)數(shù)據(jù)庫貌似給出了答案。
 
  兩年前,谷歌的幾個(gè)研究員啟動(dòng)了一個(gè)神經(jīng)網(wǎng)絡(luò)項(xiàng)目,目標(biāo)是找出單詞相鄰組合的各種模式,而所要使用的語料庫來自谷歌新聞文本中的300萬個(gè)單詞。雖然結(jié)果很復(fù)雜,但團(tuán)隊(duì)人員發(fā)現(xiàn)可以用向量空間圖來展示這些模式,其中大約有300個(gè)維度。
 
  在向量空間中,具有相似意義的單詞會(huì)占據(jù)同一塊位置,而單詞間的關(guān)系,可以通過簡單的向量代數(shù)來捕捉。例如,“男人與國王就相當(dāng)于女人與王后”,可以使用符號(hào)表示為“男人:國王::女人:王后”。相似的例子有,“姐妹:女人::兄弟:男人”等等。這種單詞之間的關(guān)系被稱為“單詞嵌入”。
 
  最后,蘊(yùn)含了諸多單詞嵌入的數(shù)據(jù)庫被稱為Word2vec。之后的幾年內(nèi),大量研究人員開始使用它幫助自己的工作,比如機(jī)器翻譯和智能網(wǎng)頁搜索。
 

 
  但是有一天,波士頓大學(xué)的TolgaBolukbasi的和幾位來自微軟研究院的人員發(fā)現(xiàn),這個(gè)數(shù)據(jù)庫存在一個(gè)很大的問題:性別歧視。
 
  比如說,你在數(shù)據(jù)庫里詢問“巴黎:法國::東京:x”時(shí),系統(tǒng)給你的答案是x=日本。但是,如果問題變?yōu)?ldquo;父親:醫(yī)生::母親:x”時(shí),給出的答案是x=護(hù)士;再比如問題“男人:程序員::女人:x”,答案為x=主婦。
 
  這種答案在一定程度上已經(jīng)算是一種性別歧視了。而據(jù)分析,個(gè)中原因是Word2vec語料庫里的文本本身帶有性別偏見,之后的向量空間圖隨之也受到影響。
 
  由此我們可以看出,機(jī)器學(xué)習(xí)之所以會(huì)出錯(cuò),某種程度上還是歸于“學(xué)習(xí)資料”的“不太正經(jīng)”,以及算法那種什么都學(xué)的性質(zhì)。
 
  這種錯(cuò)誤是否可以避免?
 
  講真,以當(dāng)前的技術(shù)來講,這種現(xiàn)象是很難杜絕的。如果要杜絕這種情況的出現(xiàn),那不僅涉及到技術(shù)層面,還有社會(huì)道德層面。
 
  先看社會(huì)道德層面。機(jī)器學(xué)習(xí)算法的數(shù)據(jù)來源于人們的語言、行為習(xí)慣等,以軟銀計(jì)劃打造的人工智能汽車為例。7月份,軟銀與本田達(dá)成合作,聯(lián)手打造一輛能夠閱讀駕駛員情緒并與之交流的汽車,在行駛過程中,系統(tǒng)中的機(jī)器學(xué)習(xí)算法可以學(xué)習(xí)駕駛員的駕駛習(xí)慣,從而在無人駕駛模式開啟時(shí),能夠給予駕駛者最舒服、毫無違和感的的駕駛體驗(yàn)。但是,如果該駕駛員有不良駕駛習(xí)慣,那將會(huì)對算法的學(xué)習(xí)提供錯(cuò)誤的示范。
 

 
       這僅僅是駕駛習(xí)慣,而在語言方面,其中可能包括暴力、侮辱等等字眼,相比于駕駛習(xí)慣,這些更難以約束。因而,在學(xué)習(xí)對象都不能“正經(jīng)”的情況下,又怎么將機(jī)器學(xué)習(xí)算法調(diào)教完美?
 
  再看技術(shù)層面,這也得從數(shù)據(jù)方面下手。如果想要好好的訓(xùn)練算法,研究人員就得剔除數(shù)據(jù)中的不良信息和隱藏的邏輯,再讓算法分別識(shí)別。但從這里我們就可以了解到,這是對于研究人員而言,將是一項(xiàng)極其繁重、極具難度的工作。而且,摳字眼還是比較簡單的了,最難搞的還是字里行間的邏輯關(guān)系,一不小心就是一個(gè)大坑。不管是人類,還是機(jī)器,對于這種識(shí)別都是一個(gè)難以跨越的坎兒。
 
  以此種種來看,機(jī)器學(xué)習(xí)固有它的好處,但我們還是不能過于依賴,尤其是涉及到一些復(fù)雜的工作,比如開車、聊天等情形。不過,雖然當(dāng)前這個(gè)問題很難解決,但隨著人工智能技術(shù)的發(fā)展,說不定哪天研究人員就能想到一個(gè)法子,從而徹底解決這個(gè)問題。
 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行