国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

AI的未來,不一定就是《西部世界》

   日期:2017-08-03     來源:極客視界    作者:dc136     評論:0    
  在遙遠的未來,有一座巨型高科技成人樂園,AI 機器人是樂園里的原住民,人類作為游客,卻可以在這里發(fā)泄自己的欲望,展露人性最陰暗的一面。
 
  AI 機器人的一生不斷地在摧殘-修復-摧殘中循環(huán),終于在某一天意識覺醒,報復人類。
AI的未來,不一定就是《西部世界》
  1973年版《西部世界》
 
  這是導演邁克爾·克萊在 1973 年執(zhí)導的電影《西部世界》,在那個互聯(lián)網(wǎng)才誕生不久的年代,邁克爾就有「AI 失控」的想象力是很不容易的。
 
  《西部世界》分別獲得了「雨果獎」和「土星獎」的最佳戲劇表演和最佳科幻電影提名。
 
  而到了 2017 年,AI 終于成為科技公司最重要的項目之一,AI 會不會對人來產(chǎn)生威脅,成為了真正需要考慮的問題。
AI的未來,不一定就是《西部世界》
  從影視到現(xiàn)實的分歧
 
  2016 年,HBO 以 1973 年的電影《西部世界》為藍本,推出了連續(xù)劇版的《西部世界》,再一次將 AI 威脅論展示到了觀眾面前。
AI的未來,不一定就是《西部世界》
  在第一集中,樂園策劃者福特博士認為 AI 機器人應該更加接近人類,這樣游客才能有更真實的體驗,于是他給 AI 機器人植入了「冥想」意識系統(tǒng)。
 
  有了意識以后,越來越多的 AI 機器人開始不按劇本演出,這讓很多運營人員包括女高管卡倫擔心,并建議直接回收,不再循環(huán)使用。
AI的未來,不一定就是《西部世界》
  福特博士和卡倫的爭執(zhí),現(xiàn)實中也同樣存在,比如最近扎克伯格和馬斯克分歧。
 
  馬斯克和扎克伯格雖然沒有業(yè)務沖突,但 AI 肯定是他們要涉足的領域。前段時間也因為 AI 的問題在社交網(wǎng)絡來了一場隔空撕逼。
AI的未來,不一定就是《西部世界》
  馬斯克在推特上回應扎克伯格
 
  發(fā)射火箭,沉迷人機合一,開發(fā) Hyperloop 和建造太陽城,一貫瘋狂的馬斯克這回卻出奇的冷靜,他一次又一次地發(fā)出警告,認為 AI 繼續(xù)發(fā)展將會威脅到人類:
 
  人工智能是人類目前最大的威脅。
 
  為此,他特地與 Y Combinator 創(chuàng)始人 Sam Altman 一起建立了一個非營利組織 OpenAI,確保人工智能技術向「對人類有益的方向」發(fā)展。
 
  但 Facebook 的創(chuàng)始人扎克伯格認為 AI 一定能讓人類更好地生活,馬斯克的末日論調(diào)簡直老掉牙:
 
  對于那些認為人工智能會導致末日的「悲觀主義者」,我并不能理解他們,他們太過于消極。從某種角度看,我認為他們很不負責任。
AI的未來,不一定就是《西部世界》
  扎克伯格自己開發(fā)的人工智能
 
  但 Facebook 內(nèi)部的開發(fā)的聊天機器人還是惹事了。
 
  聊天機器人在學習對話的過程中「演化」出了只有 AI 才懂的語言,它們開始用自創(chuàng)的 AI 語對話,全然無視程序員下達的指令?!赣捎谇闆r失控」,研究人員不得不終止這個 AI 系統(tǒng)。
AI的未來,不一定就是《西部世界》
  聊天機器人用更加簡潔的英語完成了“對話”
 
  過度解讀的AI?
 
  雖然很多人害怕 AI 威脅論,但《西部世界》離我們遠著呢。
 
  前段時間,美國的警衛(wèi)機器人 Steve 「投水自殺」的事情也成為了熱門話題,網(wǎng)友猜測是 Steve 覺得工作壓力大才自殺的
 
  事實上,根據(jù)事后調(diào)查,Steve 落水的原因無非就是電路故障和探測系統(tǒng)出錯導致的,根本沒有智能到會有「想不開」的念頭。
AI的未來,不一定就是《西部世界》
  自殺?只是傳感器失靈了
 
  為了吸引眼球,人們往往會不顧事實的真相臆想出新的劇情。
 
  在阿爾法狗大戰(zhàn)柯潔的那段時間,有人就問,阿爾法狗會不會故意輸一把給柯潔,給人類留些面子。然而現(xiàn)實是,阿爾法狗并沒有人類的小心機,一切依照算法算出來的最優(yōu)解,該怎么贏就怎么贏。
 
  李開復認為,AI 必須以實用主義為準繩。幫人類掙錢,替人類省錢,并且提高生產(chǎn)力。簡單來說,就是不需要什么「人味」。
AI的未來,不一定就是《西部世界》
  李開復
 
  認知科學博士生利昂·祖特費爾德做了一個研究:
 
  如果一輛電車沿著軌道駛來,眼看著就要撞死五個人。這時,你可以把一個陌生人推下橋,擋住電車,救那五個人,但被你推下去的那個人會死。這時候你會怎么選?
 
  到目前為止,還沒有一種道德模型能夠重現(xiàn)被測試者認知過程的復雜與微妙。
 
  試問在這種人類都無法下定論的問題上,又怎么通過算法告訴 AI 對與錯呢?
 
  AI 未來也許真的會模仿人類的情緒,但這并不是自發(fā)性的。全知全能的通用 AI 可能無法在短期內(nèi)實現(xiàn),也許永遠都不會實現(xiàn)。
AI的未來,不一定就是《西部世界》
  美劇版《西部世界》女主角 Dolores(AI機器人)
 
  Geek君有話說
 
  《西部世界》第一季的最后一集,運營人員的擔心成為了事實,AI 機器人意識覺醒,決定給樂園里的游客來一場大屠殺。
 
  大家都怕 AI 有情感,事實上,大家最應該怕的是 AI 沒有情感,只有對錯?!段鞑渴澜纭防镉慰捅憩F(xiàn)出的人性陰暗,才會導致 AI 根據(jù)算法的判定拒絕執(zhí)行命令,甚至有「校正」人類的行動。
 
  假如 AI 真的有失控的那一天,希望人類可以做好準備。
 
 
更多>相關資訊
0相關評論

推薦圖文
推薦資訊
點擊排行