国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫(kù)卡  碼垛機(jī)器人  機(jī)械手 

人工智能來(lái)了 法律是否該未雨綢繆

   日期:2017-02-15     來(lái)源:法制日?qǐng)?bào)——法制網(wǎng)    作者:lx     評(píng)論:0    
標(biāo)簽:
   人工智能、自主系統(tǒng)的出現(xiàn),不但挑戰(zhàn)了人類(lèi)對(duì)自然的認(rèn)識(shí),也挑戰(zhàn)了人類(lèi)對(duì)自己的認(rèn)識(shí),其中就包括各種不可想象變?yōu)楝F(xiàn)實(shí)后的法律風(fēng)險(xiǎn)。人工智能離我們的生活有多遠(yuǎn)?人工智能時(shí)代,我們將面臨哪些風(fēng)險(xiǎn)?又該如何防范?圍繞這些話題,記者與業(yè)內(nèi)研究人士展開(kāi)了對(duì)話。
 
  對(duì)話人:騰訊研究院研究員 曹建峰 《法制日?qǐng)?bào)》記者 張昊
 
  人工智能是什么
 
  記者:對(duì)于人工智能,很多人的了解還停留在科幻電影、阿爾法狗。從概念上說(shuō),人工智能是一種怎樣的存在?
 
  曹建峰:通俗地理解,人工智能就是機(jī)器能完成人類(lèi)需要智力才能完成的任務(wù)。
 
  以往,我們認(rèn)為地球上只有人類(lèi)才有智能,人類(lèi)的智能包括理性思維、語(yǔ)言能力、邏輯推理和情感,可以解決問(wèn)題,有自己的目標(biāo),可以執(zhí)行行動(dòng)。當(dāng)然,“智能”這個(gè)詞的邊界尚有很多爭(zhēng)議,也在不斷變化。目前對(duì)“人工智能”(AI)和“自主系統(tǒng)”(AS)中的人工智能概念在科學(xué)界還沒(méi)有達(dá)成一個(gè)共識(shí)。
 
  美國(guó)“人工智能教科書(shū)”以人類(lèi)為參考,對(duì)人工智能有一個(gè)通常的定義,即像人一樣思考,像人一樣行動(dòng),理性思考和理性行動(dòng)。對(duì)人工智能還有一些其他的定義,例如能自己設(shè)立目標(biāo),然后制定一系列的計(jì)劃執(zhí)行出來(lái)。
 
  人工智能內(nèi)在的技術(shù)或核心用到了一些深度算法,例如神經(jīng)網(wǎng)絡(luò)算法,模擬人的大腦結(jié)構(gòu),從而模擬人類(lèi)思維、決策的過(guò)程。還有深度學(xué)習(xí)、基因算法、進(jìn)化論等,深度算法技術(shù)支持著機(jī)器人進(jìn)行某種決策。
 
  人工智能和以往的計(jì)算機(jī)程序的區(qū)別,就是它具有自主性,只需要給它一些最原始的數(shù)據(jù),它自己可以推出一個(gè)結(jié)論,做出自己的決策和判斷,它有學(xué)習(xí)的能力,這就是自主性。
 
  記者:我們接觸比較早也比較多的人工智能,應(yīng)該算是聊天機(jī)器人軟件。它會(huì)通過(guò)所有用戶(hù)的使用過(guò)程進(jìn)行語(yǔ)言學(xué)習(xí),“進(jìn)化”自己,逐漸進(jìn)行更豐富的對(duì)話。當(dāng)然,聊天機(jī)器人軟件也會(huì)學(xué)到臟話,用戶(hù)在對(duì)話中告訴它“你說(shuō)的是臟話”,它還會(huì)糾正自己。除了這種聊天機(jī)器人軟件,目前的日常生活里,我們還會(huì)遇到哪些人工智能應(yīng)用?
 
  曹建峰:國(guó)外大軟件公司都在推出自己的聊天機(jī)器人,目前這種應(yīng)用還是比較初步的。此外,例如自動(dòng)駕駛汽車(chē)或輔助駕駛,駕駛員不需要按著方向盤(pán),可以自主完成停車(chē)、變道、轉(zhuǎn)彎。人工智能應(yīng)用還有酒店服務(wù)機(jī)器人、救援機(jī)器人,個(gè)性化推薦等。
 
  法律風(fēng)險(xiǎn)有哪些
 
  記者:在影視劇中,我們會(huì)看到很多探討人工智能與人類(lèi)倫理法律的問(wèn)題。隨著人工智能技術(shù)的發(fā)展,我們?cè)诂F(xiàn)實(shí)生活里是否也會(huì)遇到這些問(wèn)題?
 
  曹建峰:AI系統(tǒng)應(yīng)用日益廣泛,進(jìn)入了社會(huì)生活的很多方面。首先是安全問(wèn)題,從法律角度看,就可以轉(zhuǎn)化為責(zé)任問(wèn)題。例如無(wú)人駕駛會(huì)不會(huì)對(duì)我們的財(cái)產(chǎn)、人身安全造成傷害?司機(jī)坐在上面不需要自己開(kāi)車(chē),更像是一個(gè)乘客的角色。如果無(wú)人駕駛車(chē)輛出現(xiàn)故障,導(dǎo)致司機(jī)致人損害,司機(jī)是否能夠獲得賠償?在混合駕駛模式下,司機(jī)和車(chē)需要配合,發(fā)生了車(chē)禍,廠商是否需要擔(dān)責(zé)?司機(jī)和廠商的責(zé)任分配問(wèn)題目前還比較模糊。
 
  再比如,如何保證人工智能遵守社會(huì)規(guī)范和社會(huì)價(jià)值,它面對(duì)風(fēng)險(xiǎn)的時(shí)候怎么像人一樣決策。例如救援機(jī)器人,在老者和弱者之間怎么選擇,先救誰(shuí)后救誰(shuí),這些都需要提前考慮。
 
  還有隱私的問(wèn)題。人工智能發(fā)展迅速,它做出決策需要大量的個(gè)人數(shù)據(jù)存在人工智能系統(tǒng)中。人工智能系統(tǒng)對(duì)我們進(jìn)行“畫(huà)像”,形成一個(gè)“感官的印象”。我們自己可能都無(wú)法知道我們被這些軟件或系統(tǒng)進(jìn)行了畫(huà)像,更無(wú)從知曉這些畫(huà)像是否真實(shí)?;蛘哒f(shuō),系統(tǒng)給我們打一些標(biāo)簽,我們可能不知道它給我們打的是什么樣的標(biāo)簽,這些標(biāo)簽是不是錯(cuò)誤或者有一些問(wèn)題,這些標(biāo)簽轉(zhuǎn)移到其他場(chǎng)合的時(shí)候,會(huì)對(duì)我們的權(quán)利產(chǎn)生影響,比如可能影響我們申請(qǐng)貸款、找工作等。我們自己意識(shí)不到這個(gè)問(wèn)題,因?yàn)樗褂玫男畔⑹遣还_(kāi)不透明的。
 
  記者:也就是說(shuō),人工智能系統(tǒng)搜集的可能是片面的信息,在將來(lái)會(huì)對(duì)人的權(quán)利產(chǎn)生影響。
 
  曹建峰:人工智能系統(tǒng)收集什么信息、這個(gè)信息做怎樣的決策,我們自己是無(wú)法控制的,更多時(shí)候也是不知情的。
 
  比如,國(guó)外一些公司在招聘時(shí)會(huì)用AI對(duì)應(yīng)聘者進(jìn)行人格測(cè)試,如果系統(tǒng)認(rèn)為應(yīng)聘者未來(lái)會(huì)患上某種疾病或懷孕,可能會(huì)造成應(yīng)聘者被拒,會(huì)違反禁止歧視的法律規(guī)定。
 
  還有一個(gè)問(wèn)題是算法歧視,這是一個(gè)比較迫切的問(wèn)題。以前有很多工作都是人來(lái)完成的,現(xiàn)在被人工智能系統(tǒng)代替,例如個(gè)性化推薦。

  風(fēng)險(xiǎn)該怎樣防控
 
  記者:關(guān)于人工智能可能產(chǎn)生的法律問(wèn)題,我們是否應(yīng)提前做好應(yīng)對(duì)?
 
  曹建峰:現(xiàn)在討論有些問(wèn)題可能還太早,比如人工智能的智力是否會(huì)超越人類(lèi)、脫離人類(lèi)控制等問(wèn)題,目前來(lái)看還比較遠(yuǎn)。
 
  不過(guò),一些比較具體的問(wèn)題還是需要提前關(guān)注。比如無(wú)人駕駛汽車(chē)、混合駕駛汽車(chē),很快就會(huì)進(jìn)入我們的生活,其中涉及的法律問(wèn)題需要提前考慮。
 
  記者:在剛才所提到的一些問(wèn)題中,還包括財(cái)產(chǎn)和安全的威脅、責(zé)任、遵守人類(lèi)的法則、算法歧視等,這些是否也都應(yīng)成為法律關(guān)注點(diǎn)?
 
  曹建峰:對(duì),很多方面都是法律問(wèn)題,可以用法律解決。事前的監(jiān)管主要是研發(fā)環(huán)節(jié),如果不考慮人類(lèi)社會(huì)的道德規(guī)范和價(jià)值規(guī)范,人工智能應(yīng)用投入市場(chǎng)之后,在面對(duì)危險(xiǎn)和事故時(shí),可能做出一些有違人類(lèi)期待的決策。
 
  世界各國(guó)業(yè)界都很關(guān)心人工智能的研發(fā)環(huán)節(jié),也就是說(shuō)設(shè)計(jì)開(kāi)發(fā)過(guò)程是否應(yīng)該有一些倫理守則,包括遵守人類(lèi)的道德規(guī)范和價(jià)值規(guī)范、確保安全、公眾如何信任研發(fā)的AI系統(tǒng)。
 
  首先,成文的法律是必須要遵守的,成文的法律寫(xiě)入代碼需要一些方法論。還有面對(duì)危機(jī)的時(shí)候,人工智能應(yīng)該遵守哪些善惡、是非的選擇,這些共識(shí)性的道德規(guī)則、社會(huì)和一些團(tuán)體共同的價(jià)值觀要寫(xiě)入代碼。
 
  在研發(fā)過(guò)程中,程序員寫(xiě)出來(lái)的程序可能在技術(shù)上沒(méi)有瑕疵,但可能存在社會(huì)領(lǐng)域的漏洞,一旦應(yīng)用可能產(chǎn)生歧視或安全隱患,這就需要建立倫理委員會(huì)的審查機(jī)制,從社會(huì)規(guī)范和價(jià)值的角度審查算法、邏輯是否與人類(lèi)規(guī)范、價(jià)值是一致的,并從專(zhuān)業(yè)角度給予建議。
 
  記者:通過(guò)剛才的對(duì)話可以看出,公開(kāi)透明原則非常重要,但這一點(diǎn)該如何解決?
 
  曹建峰:信息透明這個(gè)問(wèn)題有幾種解決方式,一是人工智能開(kāi)源運(yùn)動(dòng)。開(kāi)源軟件,顧名思義大家都可以共享源代碼,可以對(duì)軟件進(jìn)行審查,可以及時(shí)發(fā)現(xiàn)一些問(wèn)題。另一種方式是,人工智能系統(tǒng)可能不需要向每個(gè)人公開(kāi),但需要向?qū)徟谋O(jiān)管部門(mén)公開(kāi)源代碼和其他的材料。
 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行