国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫(kù)卡  碼垛機(jī)器人  機(jī)械手 

真·看臉的世界:根據(jù)相貌,AI 能測(cè)出你的觀點(diǎn)和智商

   日期:2017-09-18     來(lái)源:36氪    作者:dc136     評(píng)論:0    
標(biāo)簽: 人工智能 人臉識(shí)別
真·看臉的世界:根據(jù)相貌,AI 能測(cè)出你的觀點(diǎn)和智商
       一些研究人員表示,不久之后,計(jì)算機(jī)程序就能準(zhǔn)確地判斷出美國(guó)選民是自由派還是保守派。所需要的僅僅是他們面部的照片。
 
  Michal Kosinski是斯坦福大學(xué)的教授,他因前不久的研究——表明人工智能能夠根據(jù)照片檢測(cè)人們是同性戀還是異性戀而迅速出名。他說,性取向只是算法能夠通過面部識(shí)別來(lái)預(yù)測(cè)的許多特征之一。
 
  通過照片,人工智能將能夠識(shí)別人們的政治觀點(diǎn),他們是否擁有高智商,他們是否有犯罪傾向,是否有特定的性格特征,以及許多其他私人的個(gè)人信息,這些細(xì)節(jié)可能會(huì)給社會(huì)帶來(lái)巨大的影響,他說。
 
  Kosinski表示,他預(yù)計(jì)在不久的將來(lái),面部識(shí)別技術(shù)會(huì)引發(fā)了復(fù)雜的道德問題,即隱私受到侵蝕,以及可能會(huì)濫用人工智能以攻擊弱勢(shì)群體。
 
  他說:“面部是匯集了多種因素的可觀測(cè)指標(biāo),比如你的生活史、你的發(fā)展因素,以及你是否健康。”
 
  面部包含大量信息,使用大型的照片集,復(fù)雜的計(jì)算機(jī)程序可以發(fā)現(xiàn)趨勢(shì),并學(xué)習(xí)如何將關(guān)鍵特征與較高的準(zhǔn)確性區(qū)分開來(lái)。在Kosinski的“同性戀者”AI中,算法使用在線約會(huì)的照片創(chuàng)建一個(gè)程序,可以在極高的正確率下識(shí)別人們的性取向(男性91%,女性83%),只不過是通過查看幾張照片而已。
 
  Kosinski的研究極富爭(zhēng)議性,并面臨LGBT權(quán)利團(tuán)體的強(qiáng)烈反對(duì),他們認(rèn)為人工智能存在缺陷,反對(duì)同性戀的政府可以使用這種軟件來(lái)對(duì)付同性戀者并迫害他們。不過,Kosinski和其他研究人員認(rèn)為,強(qiáng)大的政府和企業(yè)已經(jīng)擁有這些技術(shù)能力,而在努力推動(dòng)隱私保護(hù)和監(jiān)管方面的保護(hù)措施方面,至關(guān)重要的是要揭露可能存在的危險(xiǎn),因?yàn)樵谶@些保護(hù)措施與人工智能的發(fā)展沒有同步。
 
  Kosinski是教組織行為學(xué)的助理教授,他說他正在研究面部特征和政治偏好之間的聯(lián)系,初步結(jié)果顯示,人工智能通過人們的面部特征來(lái)猜測(cè)政治傾向是有效的。
 
  他說,就像研究顯示的那樣,這可能是因?yàn)檎斡^點(diǎn)似乎是可以遺傳的。這意味著,政治傾向可能與基因或發(fā)育因素有關(guān),這些都可能會(huì)導(dǎo)致面部差異。
 
  Kosinski說,之前的研究發(fā)現(xiàn),美國(guó)保守派政客往往比自由派更有吸引力,這可能是因?yàn)殚L(zhǎng)相好看的人有更多的優(yōu)勢(shì),更容易在生活中取得成功。
真·看臉的世界:根據(jù)相貌,AI 能測(cè)出你的觀點(diǎn)和智商
  Kosinski說,人工智能在監(jiān)測(cè)那些極度偏左或偏右的人的時(shí)候表現(xiàn)最好,對(duì)大量中立的美國(guó)選民來(lái)說,并不是那么有效的。“一個(gè)較高的保守分?jǐn)?shù)……會(huì)是一個(gè)非??煽康念A(yù)測(cè),這個(gè)人是保守的。”
 
  Kosinski也因其在心理測(cè)量方面的爭(zhēng)議性研究而聞名,包括使用Facebook的數(shù)據(jù)來(lái)推斷性格。數(shù)據(jù)公司Cambridge Analytica也用類似的工具為支持特朗普競(jìng)選的選民提供支持,這引發(fā)了關(guān)于在競(jìng)選中使用個(gè)人選民信息的辯論。
 
  Kosinski說,面部識(shí)別也可以用來(lái)推斷智商,這表明未來(lái)學(xué)校招生時(shí)時(shí)可以考慮使用面部掃描的結(jié)果。這一應(yīng)用引發(fā)了一系列倫理問題,特別是如果人工智能正在研究某些孩子是否在基因上更聰明的時(shí)候,他說:“我們應(yīng)該考慮如何做,來(lái)確保我們不會(huì)出現(xiàn)類似于‘一個(gè)更好的基因,意味著更好的生活’的論斷。”
 
  Kosinski的一些建議讓人想起了2002年的科幻電影《Minority Report(少數(shù)派報(bào)告)》,在這部電影中,警察在根據(jù)預(yù)測(cè)就把那些未來(lái)有謀殺可能的人給逮捕起來(lái)了。這位教授認(rèn)為,社會(huì)的某些領(lǐng)域已經(jīng)以類似的方式運(yùn)作。
 
  他說,當(dāng)學(xué)校的輔導(dǎo)員在觀察那些表現(xiàn)出攻擊性行為的孩子時(shí),他們會(huì)進(jìn)行干預(yù)。他說,如果算法可以用來(lái)準(zhǔn)確預(yù)測(cè)哪些學(xué)生需要幫助和早期支持,這可能是有益的。“這些技術(shù)在表面上聽起來(lái)很危險(xiǎn),也很嚇人,但如果使用得當(dāng)或合乎倫理,它們真的可以改善我們的生存。”
 
  然而,越來(lái)越多的人擔(dān)心人工智能和面部識(shí)別技術(shù)實(shí)際上是依賴于有偏見的數(shù)據(jù)和算法,并可能對(duì)人們?cè)斐删薮蟮膫?。在刑事司法的背景下,這尤其令人擔(dān)憂。在刑事司法體系中,機(jī)器可以根據(jù)法庭和警察系統(tǒng)中的偏頗數(shù)據(jù)作出審判,比如刑期的長(zhǎng)短,或者是否釋放某人的保釋。這些數(shù)據(jù)來(lái)自法院和警察系統(tǒng),每一步都帶有種族偏見。
 
  Kosinski預(yù)測(cè),如果有大量的個(gè)人面部圖像,算法就可以很容易地檢測(cè)出這個(gè)人是否是精神病患者,或者是否有較高的犯罪傾向。他說,這尤其令人擔(dān)憂,因?yàn)榉缸飪A向并不會(huì)轉(zhuǎn)化為犯罪行為:“即使是有高度犯罪傾向的人也不太可能犯罪。”
 
  他還引用了《經(jīng)濟(jì)學(xué)人》中提到的一個(gè)例子,在人工智能用于性取向研究被報(bào)道出來(lái)之后,夜總會(huì)和體育場(chǎng)館可能會(huì)面臨壓力,要求人們?cè)谶M(jìn)入之前掃描面部,以發(fā)現(xiàn)可能存在的暴力威脅。
 
  Kosinski指出,在某些方面,這與人類安全警衛(wèi)對(duì)他們認(rèn)為危險(xiǎn)的人做出主觀決定并沒有太大不同。
 
  卡爾加里大學(xué)環(huán)境設(shè)計(jì)和計(jì)算機(jī)科學(xué)教授Thomas Keenan說,法律通常認(rèn)為人們的面孔是“公共信息”,并指出法規(guī)并沒有跟上技術(shù)的發(fā)展:“當(dāng)使用某人的面部來(lái)產(chǎn)生新信息時(shí),沒有任何法律認(rèn)為這是建立在侵犯隱私的情況上。”
 
  Keenan說,可能需要發(fā)生一場(chǎng)悲劇來(lái)引發(fā)改革,比如一個(gè)同性戀青年被毆打致死,因?yàn)閻喊杂靡环N算法來(lái)攻擊他:“現(xiàn)在,你把人們的生命置于危險(xiǎn)之中。”
 
  即使人工智能能夠做出準(zhǔn)確的預(yù)測(cè),也有一定比例的預(yù)測(cè)是不正確的。
 
  Keenan說:“你正沿著一個(gè)非常滑的斜坡走下去,不管是二十分之一,還是一百分之一……預(yù)測(cè)都不是完全準(zhǔn)確的。”
 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行