国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

伯克利教授:被人工智能“洗腦”的嚴(yán)重性,或?qū)⒅苯佑绊懴乱蝗蚊绹偨y(tǒng)選舉

   日期:2018-07-03     來源:經(jīng)濟(jì)觀察網(wǎng)    作者:昏昏     評論:0    
標(biāo)簽:
  胡志行/文
 
  根據(jù)普華永道在2017年公布的調(diào)研顯示,到2030年,人工智能市場將會達(dá)到15.7兆億美元,幾乎等于中國與印度2017年的GDP總和。
 
  從自動駕駛,基因治療到藝術(shù)的創(chuàng)造,人工智能的發(fā)展正在改變著整個世界。與此同時,人工智能的發(fā)展也帶來越來越多的問題,比如人工智能的可控性,以及人工智帶來的隱私問題。
 
  前段時間的新聞中出現(xiàn)了很多令人擔(dān)憂的新聞事件,比如《紐約時報(bào)》之前報(bào)道的一則新聞,關(guān)于一家分析公司可能非法操縱2016年美國總統(tǒng)選舉并向特朗普競選團(tuán)隊(duì)提供了很多用來誘導(dǎo)民眾的服務(wù)。加上Facebook的個人信息泄露事件再不停的發(fā)酵。通過Facebook作為廣告商,Cambridge Analytica不正當(dāng)?shù)孬@得了大約5000萬用戶的信息,包括他們的個人偏好和習(xí)慣。這些信息都是有可能通過有針對性的廣告和假新聞來誘導(dǎo)用戶。馬克·扎克伯格出面道歉證實(shí)了這個事件,那么這意味著類似Cambridge Analytica這種分析公司所做的誘導(dǎo)已經(jīng)逐漸開始影響越來越多人。
 
  James O’Brien教授是加州大學(xué)伯克利分校獲得奧斯卡科學(xué)技術(shù)獎的教授與研究員。他的研究主要是開發(fā)用于好萊塢式特效的計(jì)算機(jī)算法,以及用于檢測圖像和視頻中存在的情緒操縱與誘導(dǎo)的計(jì)算機(jī)算法。
 
  作為一名資深電腦圖像教授,James O’Brien教授認(rèn)為在不久的將來,虛假的視頻與假新聞的結(jié)合會產(chǎn)生難以想象的影響。信息誘導(dǎo)也是一個難以消滅的問題,因?yàn)殡S著檢測方法的發(fā)展,這些試圖誤導(dǎo)他人的公司會開發(fā)新的方法來隱藏他們的行為。
 
  以下為訪談內(nèi)容:
 
  問:在FB信息泄露事件中,按照個人喜好推送新聞產(chǎn)生的影響如何誘導(dǎo)與操縱情緒?
 
  James:由于人工智能的廣泛使用,每個人都可以輕松使用圖像,視頻制作工具來制作幽默,藝術(shù),創(chuàng)意類圖像與視頻。與此同時,隨著視頻或圖像制作的簡易化,使得它更容易地被利用來制作假信息去誤導(dǎo)人們。
 
  作為AI的其中一個分支,機(jī)器學(xué)習(xí)(machine learning,ML)對幾乎所有計(jì)算領(lǐng)域都產(chǎn)生巨大的影響,特別是電腦圖像正在發(fā)生非常重大的變化。我認(rèn)為最根本的變化或許是使用機(jī)器學(xué)習(xí)構(gòu)建的算法可以使得以前非常耗時的手動任務(wù)自動化。

  問:您如何看待電腦圖像等細(xì)分領(lǐng)域在人工智時代可能帶來的挑戰(zhàn)?
 
  James:我認(rèn)為最大的挑戰(zhàn)是要如何確保圖像和視頻制作被用于合理合法的目的。如果說CG可以用來重現(xiàn)“星球大戰(zhàn)”電影“俠盜一號”中的塔金總督,盡管他的演員彼得庫欣已經(jīng)在1994年去世,那么CG也可以被用來制作別人所作所說的視頻,即使他從來沒有做過或者說過。如果有人制作一段惡搞朋友的視頻并上傳到Facebook或其他社交媒體,那可能沒問題。但是,如果有人制作一段視頻,去惡意捏造他們不喜歡的鄰居做的非法活動或者制作一些假視頻去詆毀他們不支持的政客,視頻被以訛傳訛,那么這會導(dǎo)致嚴(yán)重的社會問題出現(xiàn),因?yàn)榇蠖鄶?shù)人總是有意識的無意識的去相信自己所看到的一切。
 
  問:在美國,社交媒體與新聞的自由與民主化產(chǎn)生了假新聞,如今圖像和視頻編輯的自由與民主化是否會帶來假信息泛濫的危機(jī)?
 
  James:我認(rèn)為在下次總統(tǒng)選舉中,假影片肯定會成為一個非常嚴(yán)峻的威脅。我們需要開始思考我們將如何處理應(yīng)對這個問題。即使我們開發(fā)出能夠檢測出情緒操縱圖像的技術(shù)工具,我們?nèi)匀恍枰紤]如何讓人們?nèi)バ湃尾⑶伊?xí)慣性的去使用這種工具。例如,當(dāng)檢測軟件將視頻標(biāo)識為假冒,但具有政治偏見的“專家”卻聲稱該軟件不可信的時候怎么辦?當(dāng)我們不能相信我們看到的東西時,我們?nèi)绾谓⑿湃危?/div>
 
  問:未來該領(lǐng)域的發(fā)展如何?
 
  James:目前我正在與加州大學(xué)戴維斯分校和弗吉尼亞大學(xué)的研究人員合作,我們開始嘗試研究和了解人們對假視頻或者圖片做出什么反應(yīng)。同時,伯克利與其他幾所大學(xué)的學(xué)生也在我的實(shí)驗(yàn)室里開發(fā)檢測假圖像和視頻的方法。目標(biāo)是創(chuàng)建工具或者軟件,來提醒用戶辨別具有誘導(dǎo)性的圖像。這是一個新的研究領(lǐng)域,但迄今為止只有少數(shù)幾種方法已經(jīng)開發(fā)出來,而且這些方法并不完整。
 
 ?。ê拘校韫萊AVV基金投資分析師,畢業(yè)于加州大學(xué)圣地亞哥分校數(shù)學(xué)經(jīng)濟(jì)系)
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點(diǎn)擊排行