国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

霍金:人工智能可能會導(dǎo)致人類的滅亡

   日期:2014-05-04     來源:騰訊科學(xué)    作者:mwj     評論:0    
標(biāo)簽:
 
  著名物理學(xué)家史蒂芬·霍金在討論約翰尼·德普主演的新片《超驗駭客》時稱,人工智能或許不但是人類歷史上最大的事件,而且還有可能是最后的事件。他的意思是:人工智能可能會導(dǎo)致人類的滅亡。
 
  當(dāng)你為人工智能技術(shù)的飛速發(fā)展而歡呼雀躍的時候,你是否想過這可能并不是一件好事?
 
  在觀看了德普主演的新片《超驗駭客》后,霍金在為《獨立》雜志撰寫的一篇文章中明確地表達(dá)了他對這個問題的擔(dān)憂。
 
  霍金擔(dān)憂的對象不僅僅是未來的人工智能技術(shù),甚至還包括現(xiàn)在的一些公司比如谷歌和Facebook。他說:“人工智能的短期影響取決于由誰來控制它,而長期影響則取決于它是否能夠被控制。”
 
  不管從短期還是長期角度來說,人工智能都存在著巨大的潛在風(fēng)險。實際上,霍金似乎根本就不信任所謂的人工智能專家。
 
  他說:“未來可能出現(xiàn)的情況到底是好是壞完全是無法預(yù)料的,面對這種情況,專家們肯定會盡一切可能去保證得到最好的結(jié)果,對嗎?錯!如果有一個優(yōu)越的外星文明給我們發(fā)來一條信息說:‘我們將在幾十年之后到達(dá)地球,’我們是否應(yīng)該回答說:‘好的,當(dāng)你到達(dá)地球的時候請通知一下我們,我們將給你留門’?我們可能不會那么做,但是如果人工智能技術(shù)繼續(xù)發(fā)展下去,差不多就會出現(xiàn)那樣的情況。”
 
  實際上,堅持技術(shù)發(fā)展似乎可以消除或避免最終產(chǎn)品可能對人類構(gòu)成的威脅。無人汽車就是個很好的例子。工程師們似乎并不關(guān)心人們在開車的過程中獲得的樂趣。
 
  霍金承認(rèn),機(jī)器人和其他的人工智能設(shè)備也許會給人類帶來巨大的好處。如果那些設(shè)備的設(shè)計非常成功,就能給人類帶來巨大的好處,他說那將是人類歷史上最大的事件。然而他同時也提醒說,人工智能也有可能是人類歷史上最后的事件。
 
  實際上,人類在考核人工智能技術(shù)的潛在風(fēng)險和收益方面所做的研究工作太少?;艚饘Υ吮硎緭?dān)憂和哀嘆。他說:“人工智能技術(shù)發(fā)展到極致程度時,我們將面臨著人類歷史上的最好或者最壞的事情。”
 
  霍金以前就曾試圖提醒人們注意一點,即科幻的魅力會蒙蔽我們的雙眼。它有時會掩蓋住一個重要的問題,即最終的結(jié)果有可能引發(fā)一場浩劫。他曾經(jīng)說過,外星文明可能會憎恨地球文明。
 
  人類有一種自戀的傾向,盲目相信自己很聰明而從不考慮事情有時可能會出錯?;蛟S正如霍金所說的那樣,科技行業(yè)應(yīng)該更多地把關(guān)注的焦點放在未雨綢繆上面。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行