国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 發(fā)那科機(jī)器人  工業(yè)  機(jī)器人  上海  ABB機(jī)器人  自動化  工業(yè)機(jī)器人  工業(yè)機(jī)器人展  機(jī)器  展會 

谷歌利用AI抵御網(wǎng)絡(luò)暴民 《紐約時報》成首站

   日期:2016-12-22     作者:zy     評論:0    
標(biāo)簽:
    谷歌有一個雄心勃勃的計劃,那就是使用人工智能來刪除侮辱性評論以及抵御網(wǎng)絡(luò)暴民。雖然目前的技術(shù)無法應(yīng)對這樣的挑戰(zhàn),但是它有助于完善那些已經(jīng)非常規(guī)范的互聯(lián)網(wǎng)社區(qū)。
 
  人類已經(jīng)破壞了互聯(lián)網(wǎng)。網(wǎng)絡(luò)欺凌、騷擾性評論、社會羞辱和令人反感的言論像瘟疫一樣在諸如Twitter和Reddit等網(wǎng)站蔓延,尤其是當(dāng)你碰巧引起了錯誤的關(guān)注的時候更是如此。
 
  提供在線服務(wù)的公司則處在被人們指控漠視騷擾性言論和壓制言論自由中間。但是,現(xiàn)在谷歌認(rèn)為,可以使用人工智能來減少這種數(shù)字化評論帶來的悲劇。該公司的技術(shù)孵化器Jigsaw(其前身為谷歌智庫Google Ideas)正打算通過一款自動化程序Conversation AI來識別并刪除數(shù)字騷擾信息。
 
  正如Jigsaw負(fù)責(zé)人Jared Cohen所說,“我想利用我們擁有的最好的技術(shù)去處理那些引戰(zhàn)帖和非正當(dāng)戰(zhàn)術(shù)(這些非正當(dāng)手段使得那些敵對聲音占據(jù)了不相稱的比例),并且盡我們所能來提供一個公平的環(huán)境”。
 
  谷歌利用AI抵御網(wǎng)絡(luò)暴民 《紐約時報》成首站
 
  谷歌此舉彰顯了其果敢的一面,而且這項計劃與Jigsaw之前的工作有所差異。Jigsaw之前的工作包括推出Project Shield(免費(fèi)的開放式DDoS攔截服務(wù)),旨在保護(hù)新聞網(wǎng)站和促進(jìn)言論自由的網(wǎng)站免受拒絕服務(wù)的攻擊。Jigsaw的另一項成果Password Alert是一個Chrome插件,旨在確保用戶密碼安全,免受網(wǎng)絡(luò)釣魚攻擊。
 
  這些都曾是主要的技術(shù)挑戰(zhàn),但引戰(zhàn)帖和網(wǎng)絡(luò)暴民儼然也已成為一個社會學(xué)問題。
 

 
  Conversation AI是谷歌“moonshot”項目中最成功的項目之一,是“Google Brain”的一個分支。一方面,Conversation AI已經(jīng)通過大規(guī)模神經(jīng)網(wǎng)絡(luò)為機(jī)器學(xué)習(xí)領(lǐng)域帶來了革命性的發(fā)展,同時也使得谷歌具有更多的優(yōu)勢,例如在圖像識別領(lǐng)域比人類更加熟練。但對于在線辱罵性言論,Conversation AI卻無能為力。
 
  雖然Jigsaw的目標(biāo)是“打擊網(wǎng)絡(luò)暴民的崛起”,但是該程序本身目前卻太過溫和,因此目前Jigsaw離成為一個合格的項目還有一段距離。Conversation AI將會主要用于簡化社區(qū)審查過程(這一過程目前主要由人類完成),因此即使無法根除那些糟糕的網(wǎng)絡(luò)行為,它也可以為一些網(wǎng)站積累更多更好的言論。
 
  暗示性言論的檢測
 
  數(shù)月之后,Jigsaw將會率先將Conversation AI應(yīng)用在《紐約時報》網(wǎng)站上,以幫助該公司管理其在線評論。目前,《紐約時報》主幾乎要審查每一條發(fā)布在其網(wǎng)站上的評論。
 
  而現(xiàn)在,Conversation AI正在閱讀其中的1800萬條評論,并從中學(xué)習(xí)如何檢測被拒絕的評論,包括沒有實(shí)質(zhì)性內(nèi)容的評論、偏離主題的評論、垃圾內(nèi)容、具有煽動性、攻擊性的評論、包含淫穢信息的評論等。
 
  《紐約時報》的目標(biāo)并非盡量減少其評論中的辱罵性言論,因?yàn)檫@個問題目前已經(jīng)在掌控之中;相反,《紐約時報》希望借此來減少人工版主的工作量。“我們并未奢望有一個完全自動化的系統(tǒng)。”《紐約時報》社區(qū)團(tuán)隊工程經(jīng)理Erica Greene說。
 
  《紐約時報》社區(qū)編輯Bassey Etim估計,最終大約50%~80%的評論可以實(shí)現(xiàn)自動審查,從而使得人工版主能夠?qū)⒏嗟木τ糜谄渌糠帧?/div>
 
  與實(shí)時免費(fèi)網(wǎng)站Twitter和Reddit不同,《紐約時報》網(wǎng)站面臨另一些問題??紤]到目前機(jī)器學(xué)習(xí)的局限性,Conversation AI還無法有效打擊存在于網(wǎng)絡(luò)空間中的辱罵性言論。
 
  盡管機(jī)器學(xué)習(xí)已經(jīng)取得了耀眼的成就,但是它仍然沒有破解人類語言。人類語言中的那些類似于圍棋或者圖像中的圖案的部分,證明了語言的難以捉摸。
 
  辱罵性言論檢測中的語言難題是語言的語境。Conversation AI的評論分析并不適用于一個完整的討論過程,因?yàn)樗豢梢詫蝹€的評論和學(xué)習(xí)模式中的評論來進(jìn)行匹配,從而識別哪些是好評論或者壞評論。
 
  例如,如果評論傾向于包含常用詞匯、短語和其他特征時,這些評論就會被認(rèn)為是可接受的。但據(jù)Greene介紹,谷歌的系統(tǒng)經(jīng)常會將關(guān)于唐納德·特朗普(Donald Trump)的文章中的評論視為辱罵性的言論,因?yàn)樗麄儠锰乩势盏囊恍┭哉?,而這些言論如果出現(xiàn)在讀者的評論中通常都會被屏蔽。對于這些類型的文章,《紐約時報》將會選擇關(guān)閉自動審核機(jī)制。
 
  因此,期望Conversation AI在開放的網(wǎng)站(例如Twitter)中有良好的表現(xiàn),幾乎是癡人說夢。
 
  Conversation AI如何檢測那些發(fā)送給猶太記者的辱罵性言論中關(guān)于大屠殺的暗示?對這些辱罵性言論的檢測是建立在機(jī)器學(xué)習(xí)算法能夠檢測的歷史知識和文化背景基礎(chǔ)之上的,而這些只有在機(jī)器學(xué)習(xí)算法接受過類似的訓(xùn)練之后才能實(shí)現(xiàn)。
 
  即便如此,如果有人發(fā)送“如果特朗普贏了,我就會買這個”并附上相同的圖片,Conversation AI又如何能夠?qū)⑵渑c辱罵性言論進(jìn)行區(qū)分?
 
  事實(shí)上,這個過程所需要的語義和實(shí)踐知識,甚至已經(jīng)超出了目前機(jī)器學(xué)習(xí)所希望達(dá)到的目標(biāo)。
 
  因此,毫無疑問,專門的引戰(zhàn)帖將會找到一種新的方法來發(fā)布辱罵性言論,而這種方式可以避開類似于Conversation AI這樣的系統(tǒng)。如果目標(biāo)是阻止評論者用侮辱性稱呼例如“同志”等稱呼對方的話,那么機(jī)器學(xué)習(xí)通過屏蔽一些評論可以很好地實(shí)現(xiàn)這一點(diǎn)。但是機(jī)器學(xué)習(xí)無法識別隱喻,例如說某人是“彎”的來隱喻某人不正常。
 
  換句話說,對于那些已經(jīng)非常規(guī)范的社區(qū)來說,Conversation AI將會使得審核任務(wù)完成得更有效率。
 
  但如果想要根除那些我們聽到的最糟糕的辱罵性言論 (這些言論通常出現(xiàn)在那些審核標(biāo)準(zhǔn)最低的網(wǎng)站上),Conversation AI則顯得無能為力。
 
  除非改變Twitter和Reddit這些平臺的性質(zhì),否則想要管理存在于這些網(wǎng)站的辱罵性言論幾乎不可能。
 
  本文作者:David Auerbach曾作為軟件工程師在谷歌和微軟供職11年,主要工作領(lǐng)域?yàn)榉?wù)器基礎(chǔ)設(shè)施。
 
 
聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點(diǎn),也不代表本網(wǎng)站對其真實(shí)性負(fù)責(zé)。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與中國機(jī)器人網(wǎng)(www.baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
電話:021-39553798-8007
更多>相關(guān)專題
0相關(guān)評論

?