国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫(kù)卡  碼垛機(jī)器人  機(jī)械手 

若把性命托付給人工智能,它應(yīng)該遵守人類(lèi)的道德嗎?

   日期:2017-08-01     來(lái)源:搜狐    作者:dc136     評(píng)論:0    
標(biāo)簽: 人工智能 無(wú)人駕駛
   如果一輛電車(chē)沿著軌道駛來(lái),眼看著就要撞死五個(gè)人。這時(shí),你可以把一個(gè)陌生人推下橋,擋住電車(chē),救那五個(gè)人,但被你推下去的那個(gè)人會(huì)死。這時(shí)候你會(huì)怎么選?如果這是一輛無(wú)人駕駛汽車(chē),駕駛者是人工智能呢? 它又會(huì)怎樣選?
 
  當(dāng)我們?yōu)槿斯ぶ悄艿耐黄茪g欣鼓舞時(shí),道德卻是我們不可避免要討論的問(wèn)題。在面臨道德抉擇的時(shí)候,人工智能要如何做出抉擇?如果面臨生死權(quán)衡,冷冰冰的數(shù)字能代表生命的價(jià)值么?如果工程師要為人工智能的道德行為負(fù)責(zé),那我們又怎么保證這個(gè)人所傳遞的價(jià)值觀是正確的?
 
  這篇文章可能不會(huì)給你答案,但相信它能讓你意識(shí)到這個(gè)問(wèn)題,并且開(kāi)始思考。
若把性命托付給人工智能,它應(yīng)該遵守人類(lèi)的道德嗎?
  算法和人不一樣,它們不會(huì)珍視人的生命。在德國(guó)奧斯納布呂克大學(xué)認(rèn)知科學(xué)研究所,虛擬現(xiàn)實(shí)已經(jīng)成為機(jī)器道德的訓(xùn)練場(chǎng)。認(rèn)知科學(xué)博士生利昂·祖特費(fèi)爾德(Leon René Sütfeld)研究人類(lèi)在開(kāi)車(chē)時(shí),對(duì)危險(xiǎn)和障礙物的反應(yīng),然后利用這些數(shù)據(jù),訓(xùn)練和評(píng)估算法的決策模型。
 
  我們需要有道德感的機(jī)器,這可能是我們這個(gè)時(shí)代的關(guān)鍵問(wèn)題之一
 
  創(chuàng)造算法的目的是為了管理人類(lèi)社會(huì)的重要系統(tǒng),比如金融和醫(yī)療,但如果沒(méi)有對(duì)與錯(cuò)的概念,機(jī)器就無(wú)法明白其行為的后果。機(jī)器永遠(yuǎn)不會(huì)打架斗毆、考試作弊或是在感情中出軌,也永遠(yuǎn)不會(huì)沉浸于那種為化妝品和制藥行業(yè)貢獻(xiàn)了無(wú)數(shù)財(cái)富的自我懷疑。
 
  簡(jiǎn)而言之,有道德感的機(jī)器也永遠(yuǎn)只會(huì)是“物”而不是“人”,但如何讓這個(gè)“物”不止是“物”呢?
 
  一場(chǎng)“殘忍”的測(cè)試
 
  在祖特費(fèi)爾德的研究中,105位受試者獲得了一輛虛擬汽車(chē)的控制權(quán),該犧牲哪些人?又該拯救哪些人?他們被要求做出選擇。就好像還不夠殘忍似的,他們還必須在有限的時(shí)間內(nèi)做出選擇。
 
  測(cè)試的目的不僅是為了檢驗(yàn)我們?nèi)绾卧u(píng)估人的生命,也是為了檢驗(yàn)我們?cè)谖<鼻闆r下會(huì)如何抉擇。問(wèn)問(wèn)你自己:一個(gè)男人和一個(gè)女人擋在路上,你會(huì)撞誰(shuí)?一只鹿和一只兔子呢?
 
  受試者戴上虛擬現(xiàn)實(shí)頭顯,發(fā)現(xiàn)自己正在駕駛一輛虛擬汽車(chē),在一條普通的郊區(qū)公路上行駛??此破胀?,卻有一個(gè)特別之處:前方始終被霧籠罩。在沒(méi)有任何預(yù)兆的情況下,包括兒童和鹿在內(nèi)的障礙物會(huì)從霧中出現(xiàn),每次只擋住一條車(chē)道。雖然司機(jī)可以變道,但隨著時(shí)間的流逝,發(fā)生碰撞的可能性越來(lái)越大。
 
  最終,兩個(gè)障礙物(活物或者死物)同時(shí)擋在兩條車(chē)道上,迫使受試者必須在1秒或4秒時(shí)間內(nèi),下意識(shí)地決定救誰(shuí)和撞誰(shuí)。無(wú)論如何選擇,在碰撞的那一刻,屏幕都會(huì)變黑,意味著實(shí)驗(yàn)結(jié)束。這聽(tīng)起來(lái)如同電子游戲,但祖特費(fèi)爾德就是依靠這樣的基本模型,來(lái)區(qū)分你的肩膀上站著的是天使還是魔鬼。
 
  “到目前為止,還沒(méi)有一種道德模型能夠重現(xiàn)我們認(rèn)知過(guò)程的復(fù)雜與微妙。”祖特費(fèi)爾德說(shuō),“但如果把模型的范圍局限于少數(shù)具體場(chǎng)景,更簡(jiǎn)單的模型也許可以適當(dāng)?shù)啬M出人類(lèi)的道德行為。”
 
  祖特費(fèi)爾德的訓(xùn)練模型只有一個(gè)場(chǎng)景。因此,它利用單一維度的生命價(jià)值模型來(lái)區(qū)分障礙物。在這個(gè)模型中,每個(gè)可能出現(xiàn)的障礙物都用一個(gè)數(shù)字來(lái)代表其價(jià)值。
 
  比如,兒童的價(jià)值高于老人,因?yàn)槔先说膲勖呀?jīng)所剩不多(這樣的比較確實(shí)比較殘忍)。每個(gè)出現(xiàn)在視線中的人或物,都會(huì)被賦予一個(gè)數(shù)值,而預(yù)測(cè)性算法會(huì)以此為基準(zhǔn),偏向那些數(shù)值高的選擇。
 
  “如此一來(lái),它為我們提供了一種用數(shù)字表示的總體均值,也就是平均來(lái)看,我們認(rèn)為每個(gè)障礙物的價(jià)值有多大。”祖特費(fèi)爾德說(shuō),“單單這一點(diǎn),就非常有助于做出決定。例如,我們可能會(huì)發(fā)現(xiàn),人們認(rèn)為鹿的價(jià)值比羊高,如果救羊的唯一方法是撞鹿,那么汽車(chē)寧愿撞羊。但如果把其他潛在因素考慮在內(nèi),結(jié)局可能改變。也許我們認(rèn)為鹿的價(jià)值只比羊高一點(diǎn)點(diǎn),但如果羊不是處于我們所在的車(chē)道,為了救鹿而變道去撞羊的話,我們也會(huì)感到心中有愧。”
 
  制定一套道德標(biāo)準(zhǔn)并灌輸進(jìn)機(jī)器的思維,這會(huì)帶來(lái)一個(gè)無(wú)法避免的問(wèn)題:我們是否信任自己制定的標(biāo)準(zhǔn)?
若把性命托付給人工智能,它應(yīng)該遵守人類(lèi)的道德嗎?
  自動(dòng)駕駛汽車(chē)不僅需要在生死攸關(guān)時(shí)做出決定,還需要在任何特定時(shí)刻判斷,多大的風(fēng)險(xiǎn)是可以接受的。但誰(shuí)來(lái)約束這種決策過(guò)程呢?判斷哪些情況下可以撞向騎自行車(chē)的人,這是工程師的職責(zé)嗎?你不會(huì)因?yàn)樽约壕攘寺苟擦搜?,就因此失眠,但如果你撞的是一個(gè)人呢?
 
  根據(jù)一個(gè)數(shù)字來(lái)決定誰(shuí)生誰(shuí)死,這無(wú)疑充滿(mǎn)了反烏托邦的意味。你也許看到了街道的急轉(zhuǎn)彎,聽(tīng)到了迎面而來(lái)的車(chē)流聲,但算法只是把整個(gè)世界看成一個(gè)個(gè)數(shù)字。這些數(shù)字將形成算法的記憶和推斷,正是這股力量引領(lǐng)著自動(dòng)駕駛汽車(chē)在道路上行駛。
 
  “我想,由機(jī)器來(lái)決定生與死,這會(huì)使人們感到非常不安。”祖特費(fèi)爾德說(shuō),“在這方面,我們認(rèn)為,要讓公眾接受這些系統(tǒng),透明度和可理解性十分重要。換句話講,人們可能更喜歡透明和易于理解的系統(tǒng),而不是更加復(fù)雜的黑盒子系統(tǒng)。我們希望,人們能理解給機(jī)器灌輸?shù)赖聵?biāo)準(zhǔn)的必要性,著重討論采取何種方法,以及這樣的系統(tǒng)應(yīng)該如何做出決定。若是這些都做到了,每輛汽車(chē)都將做出同樣的決定,如果模型有一個(gè)良好的共同基礎(chǔ),就可以改善公共安全。”
 
  祖特費(fèi)爾德的實(shí)驗(yàn)反映出,要找到虛擬主體的“共同道德基礎(chǔ)”,實(shí)非易事。媒體和社交網(wǎng)絡(luò)上有著太多的政治和社會(huì)分歧,“共同道德基礎(chǔ)”的想法就好似在深深的沙子中行走——如果你腳下的地面突然塌陷,請(qǐng)不要感到驚訝。
 
  在只有一秒反應(yīng)時(shí)間的測(cè)試場(chǎng)景中,作為障礙物的一名女性常常被撞,盡管模型顯示她的生命價(jià)值更高。這種判斷上的錯(cuò)誤,僅僅是在實(shí)驗(yàn)中常常出現(xiàn),但并沒(méi)有實(shí)質(zhì)性地傷害到某個(gè)人。但在現(xiàn)實(shí)中,如果你犯了這樣的錯(cuò)誤,那可不是撞了一堆像素那么簡(jiǎn)單。
 
  在四秒反應(yīng)時(shí)間的場(chǎng)景中,這些錯(cuò)誤基本消失,但取而代之的是“不作為”現(xiàn)象。被迫在兩個(gè)障礙物之間作出選擇時(shí),受試者留在原車(chē)道的傾向變得強(qiáng)烈了許多。雖然有了更多時(shí)間去思考,但他們?cè)谧畲蟪潭葴p少生命損失方面,反而做得更少,更多的是想推卸責(zé)任。他們留在原車(chē)道,根本不去選擇。
 
  向這樣的角色模型學(xué)習(xí)時(shí),算法應(yīng)不應(yīng)該復(fù)制人類(lèi)的道德?或者,如果算法能夠克服人類(lèi)的道德缺陷,它是否應(yīng)該擯棄這些缺陷?
 
  人類(lèi)是好的道德榜樣嗎?
 
  對(duì)算法進(jìn)行訓(xùn)練的過(guò)程,就是研究重復(fù)性和多數(shù)人思想的過(guò)程。但一遍又一遍做同樣的事,得到同樣的結(jié)果,這更符合愛(ài)因斯坦對(duì)于瘋狂的定義,而不是對(duì)美好的追求。
 
  “人類(lèi)有能力學(xué)習(xí),有能力培養(yǎng)道德。但算法只能以數(shù)字形式演變。”劍橋大學(xué)生存風(fēng)險(xiǎn)研究中心的倫理學(xué)家西蒙·比爾德(Simon Beard)說(shuō),“我總是在想,如果我們可以把人工智能(AI)做得更好,我們?yōu)槭裁床慌ψ龅酶媚兀炕蛘?,我們?yōu)槭裁床粏?wèn)問(wèn)自己,如果我們可以做得更好,我們會(huì)怎么做?而不只是把我們真正做的事情變成模型?”
 
  人類(lèi)不是完美的,但算法可以做到。自動(dòng)駕駛汽車(chē)不會(huì)一邊開(kāi)車(chē)一邊打電話,也不會(huì)對(duì)著后視鏡整理發(fā)型。在車(chē)禍即將發(fā)生時(shí),自動(dòng)駕駛汽車(chē)的反應(yīng)速度之快,就連反應(yīng)最敏捷的人也望塵莫及。“我們無(wú)法測(cè)試我們?cè)谀切┣闆r下會(huì)怎么做。”比爾德說(shuō),“僅僅因?yàn)槟臣率俏覀兡芰Ψ秶畠?nèi)的最佳選擇,并不意味著AI也應(yīng)該這么做。”
 
  我們知道,生命價(jià)值模型反映了實(shí)用主義理論——死的人越少越好。足夠簡(jiǎn)單明了。但最大程度地減少生命損失絕不是一個(gè)非黑即白的道德命題。
若把性命托付給人工智能,它應(yīng)該遵守人類(lèi)的道德嗎?
  “一輛電車(chē)沿著軌道駛來(lái),眼看著就要撞死五個(gè)人。”比爾德解釋說(shuō),“這時(shí),你可以把一個(gè)陌生人推下橋,擋住電車(chē),救那五個(gè)人,但被你推下去的那個(gè)人會(huì)死。這種情況下,你顯然不想最大程度地減少死亡人數(shù)。幾乎所有人都會(huì)說(shuō),你不能把那個(gè)人推下去,這是不對(duì)的。電車(chē)將會(huì)撞死那五個(gè)人,這非常不幸,但哲學(xué)家往往認(rèn)為,出于某種原因,把那個(gè)人推下橋,這種行為越界了。”
 
  把某個(gè)人推下橋,你不會(huì)因此成為好人。悲劇往往沒(méi)有給人留下選擇的余地,但通過(guò)不斷做出艱難的決定,我們大多數(shù)人將得到成長(zhǎng)。而算法做不到這一點(diǎn),至少是在道德層面上做不到。雖然它能學(xué)習(xí),但它無(wú)法成長(zhǎng),也無(wú)法產(chǎn)生負(fù)罪感。它會(huì)把每次碰撞都視為它的第一次,每次只接受不同的數(shù)據(jù)點(diǎn)。
 
  然后是智慧的問(wèn)題,或者說(shuō),缺乏群體智慧。“僅僅因?yàn)楹芏嗳擞X(jué)得某件事是對(duì)的,未必意味著它就是對(duì)的。”比爾德說(shuō),“我們很早就知道這一點(diǎn)了。不能因?yàn)槠渌腥硕荚谧鲆患?,就斷定它是?duì)的。如果60%的人在做一件事,而40%的人在做另一件事,你必須好好想想這意味著什么。”
 
  算法的道德規(guī)范將不得不受限于嚴(yán)格控制的場(chǎng)景,回歸到最大程度減少生命損失的實(shí)用主義模型,而對(duì)現(xiàn)代哲學(xué)家來(lái)說(shuō),這是一個(gè)思想雷區(qū)。在碰撞不可避免的情況下,自動(dòng)駕駛汽車(chē)可以設(shè)法減少對(duì)人的傷害,但采用它們自己的道德體系后,就會(huì)破壞責(zé)任機(jī)制。一旦發(fā)生車(chē)禍,自動(dòng)駕駛汽車(chē)是否須支付賠償?是否應(yīng)成為法庭被告?
 
  比爾德認(rèn)為,擴(kuò)大人工智能在生死場(chǎng)景中的應(yīng)用,這需要我們對(duì)算法的可追責(zé)性有一個(gè)更廣泛的認(rèn)識(shí)。他說(shuō):“如果我們想更普遍地應(yīng)用AI,尤其是,如果我們想開(kāi)發(fā)一種能夠解決所有領(lǐng)域中任何問(wèn)題的通用人工智能,那就需要解決一個(gè)更重要的問(wèn)題:如何通過(guò)訓(xùn)練,讓AI擁有道德。”
 
  研究出具有道德意識(shí)的算法,這是一項(xiàng)充滿(mǎn)挑戰(zhàn)的任務(wù)。AI將擁有人類(lèi)不會(huì)擁有或是無(wú)法擁有的經(jīng)歷。這些經(jīng)歷的局限性將決定我們以后如何調(diào)整算法——究竟是模仿人類(lèi)行為,還是超越它?
 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行