国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

人工智能太危險:特別當(dāng)心性愛機器人...

   日期:2017-03-07     來源:環(huán)球網(wǎng)    作者:lx     評論:0    
標(biāo)簽:
   《西部世界》(Westworld)級別的人工智能會有多危險呢?國外媒體Futurism撰文稱,該電視劇探討了有關(guān)人工智能倫理和意識的一些哲學(xué)問題,雖然現(xiàn)實中不大可能會出現(xiàn)劇中那樣的血腥場景,但我們最好還是要好好對待我們的AI機器人。
 
  “這些殘暴的歡愉,終將以殘暴結(jié)局。”在莎士比亞和邁克爾·克萊頓的助力下,HBO的《西部世界》揭示了打造先進(jìn)的人工智能技術(shù)會帶來的一些隱憂。
 
  在《西部世界》里,外表跟人沒什么兩樣的AI居住于一個看似美國西部的園區(qū)。游客只要花大筆的錢就能前往園區(qū),進(jìn)行老式的西部冒險活動。期間,他們可以隨意跟AI打斗,也可以奸淫殺害AI。游客的槍支能傷害AI,但后者的則傷害不了游客。每一次有機器人“死掉”,它的身體就會被回收清理,擦除記憶,然后再被送回園區(qū)。
 
  《西部世界》中的AI安全問題
 
  《西部世界》的創(chuàng)作靈感來自克萊頓以前的一部同名電影,它讓我們不禁思考我們將能夠在多大程度上掌控先進(jìn)的科學(xué)創(chuàng)造物。但與最初的電影不同,《西部世界》電視劇里的機器人并不是無惡不作的反派角色,而是被描寫成富有同情心、甚至很有人性的角色。
 
  不出意外的是,該園區(qū)的安全隱憂很快就浮現(xiàn)。園區(qū)由一位老人負(fù)責(zé)打理,他能夠隨意給機器人升級程序,不經(jīng)過其他人的安全檢查。那些機器人出現(xiàn)回憶起被虐待的跡象。當(dāng)中有個角色提到,只有一行代碼能夠阻止機器人傷害人類。
 
  該節(jié)目只是談到了會帶來AI安全隱憂的一部分問題:一個“有惡意的機器人”利用先進(jìn)的AI蓄意傷害人類;軟件小小的故障可帶來致命影響;在代碼層面對人類的保護(hù)不足。
 
  不過,該節(jié)目揭示的很多安全和倫理道德問題都取決于機器人是否有意識。事實上,該電視劇在非常認(rèn)真地探究一個非常困難的問題:什么是意識?除此之外,人類能夠創(chuàng)造出有意識的東西嗎?如果能的話,我們能控制它呢?我們是否想要找出這些問題的答案?
 
  為了思考這些問題,筆者采訪了喬治亞理工大學(xué)AI研究員馬克·里德爾和紐約大學(xué)哲學(xué)家大衛(wèi)·查爾莫斯(David Chalmers)。里德爾致力于研究打造創(chuàng)造性的AI,查爾莫斯則以其“意識難題”闡述而著稱。
 
  AI能感受到疼痛嗎?
 
  被問到進(jìn)行了相關(guān)編程的機器人會在多大程度上感受到疼痛時,里德爾說道,“首先,我反對對人類、動物、人形機器人或者AI實施暴力行為。”他接著解釋道,對于人類和動物來說,感覺到的疼痛是一種“避開特定刺激”的警報信號。
 
  然而,對于機器人來說,“最接近的類比可能是強化學(xué)習(xí)的機器人會碰到的體驗,這類機器人需要進(jìn)行試錯學(xué)習(xí)。”這種AI在進(jìn)行某種行動后會收到或正面或負(fù)面的反饋,然后它會相應(yīng)調(diào)整它未來的行為。里德爾說,那種負(fù)面的反饋會更“類似于在計算機游戲中輸?shù)舴謹(jǐn)?shù)”,而不是感覺到疼痛。
 
  “機器人和AI可以通過編程來像人類那樣‘表達(dá)’疼痛,”里德爾說道,“但那種疼痛會是一種幻覺。制造這種幻覺是有理由的:讓機器人能夠以一種很容易得到理解和引起共鳴的方式向人類表達(dá)自己的內(nèi)心狀態(tài)。”
 
  里德爾并不擔(dān)心AI會感受到疼痛的問題。他還說,如果機器人的記憶每晚都被完全擦除,它會感覺什么都沒發(fā)生過一樣。然而,他指出了一個潛在的安全問題。強化學(xué)習(xí)要能夠正常運作,AI需要采取因正面反饋而優(yōu)化的行動。如果機器人的記憶沒有被完全擦除——如果機器人開始記起曾發(fā)生在自己身上的糟糕經(jīng)歷——那它可能會試圖規(guī)避那些觸發(fā)負(fù)面反饋的行動或者人 。
 
  里德爾說,“理論上,這些機器人能夠?qū)W習(xí)預(yù)先計劃以最合算的方式降低獲得負(fù)面反饋的可能性……如果機器人除了知道獲得正面反饋還是負(fù)面反饋之外,并不清楚自己的行動會帶來的影響,那這也可能意味著它們會提前行動來防止遭到人類的傷害。”
 
  但他指出,在可預(yù)見的未來,機器人的能力還不足以帶來這種擔(dān)憂。假如機器人真有那么強大的能力,那會給它們帶來負(fù)面反饋的問題可能會給人類帶來威脅。
 
  AI能夠獲得意識嗎?
 
  查爾莫斯的看法則略有不同。“我是這么看意識問題的,這些存在有意識似乎不存在什么疑問……它們表現(xiàn)得擁有非常豐富的情感生活……這體現(xiàn)在它們能夠感覺疼痛和思考問題上……它們并不只是表現(xiàn)出條件反射式的行為,它們還會思考它們所在的處境,它們有在進(jìn)行推理。”
 
  “很顯然,它們是有知覺的。”他補充道。查爾莫斯說,與其嘗試定義機器人怎樣才算有意義,還不如想想它們?nèi)鄙倭耸裁?。他指出,最重要的是,它們?nèi)鄙僮杂梢庵竞陀洃洝H欢?,我們很多人都會不自覺地陷入習(xí)慣當(dāng)中,難以自拔。不計其數(shù)的人都存在極端的記憶問題,但沒有人覺得強奸或者殺害他們并無不妥。
 
  “在這個節(jié)目中,如果說虐待AI是被允許的,那是因為它們?nèi)鄙倭耸裁矗€是因為別的原因?”查爾莫斯問道。在查爾莫斯看來,《西部世界》描繪的特定場景或許并不現(xiàn)實,因為他并不認(rèn)為二分心智理論會帶來意識,甚至對于機器人也不會。“相比之下,通過編程讓機器人直接監(jiān)控自己的想法要來得簡單得多”
 
  但這還是會帶來風(fēng)險。“如果你面對的是像這么復(fù)雜、像這么聰明的機器人,你會想它是否很容易控制?”查爾莫斯問道。任何情況下,以不當(dāng)?shù)姆绞綄Υ龣C器人都可能會給人類的安全帶來威脅。打造無意識的機器人,我們會面臨它們學(xué)到錯誤的教訓(xùn)的風(fēng)險;非故意地(或者像《西部世界》那樣有意地)打造有意識的機器人,我們也面臨它們因為被虐待和壓抑而反抗人類的風(fēng)險。
 
  在《西部世界》第二集中,接待員被問她是不是“真人”,她回答說,“如果你分辨出來,又有什么所謂呢?”這番話聽上去似乎很有道理。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行