国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  機械手  發(fā)那科  機器人展覽  碼垛機器人 

谷歌前CEO:AI像核武器,大國之間需要建立“AI威懾”

   日期:2022-07-27     來源:澎湃號     評論:0    
標(biāo)簽:
微信圖片_20220727091500
谷歌前首席執(zhí)行官埃里克·施密特(EricSchmidt)在一次訪談中,將人工智能比作核武器,并呼吁建立一個類似的相互確保毀滅的威懾機制,以防止世界上最強大的國家因為AI相互毀滅。
 
  相互保證毀滅(MutuallyAssuredDestruction,簡稱M.A.D.機制,亦稱共同毀滅原則)是一種“俱皆毀滅”性質(zhì)的思想。對立的兩方中如果有一方全面使用則兩方都會被毀滅,被稱為“恐怖平衡”。
 
  施密特將AI與核武器相對比,表示中美未來可能要締結(jié)類似于禁止“核試驗”相似的條約,以防止AI毀滅世界。
 
  施密特:當(dāng)時我還很年輕,還很天真
 
  7月22日,施密特在阿斯彭安全論壇(AspenSecurityForum)國家安全和人工智能專題小組會議上談到了人工智能的危險。
 
  在回答一個關(guān)于科技中的道德價值的問題時,施密特解釋說,他自己在谷歌早期對信息的力量認(rèn)識還很天真。
 
  然后,他呼吁科技要更好地符合其服務(wù)對象的道德和倫理,并將人工智能與核武器進(jìn)行了奇怪的比較。
 
  施密特設(shè)想在不久的將來,中國和美國需要圍繞人工智能簽訂一些條約。
 
  施密特說:“在50年代和60年代,我們最終制定了一個關(guān)于核試驗的‘意料之中’的規(guī)則,最終核試驗被禁止了。”
 
  施密特認(rèn)為“這是一個信任或缺乏信任的平衡的例子,這是一個‘沒有驚喜’的規(guī)則”,他非常擔(dān)心美國和中國這兩個人工智能大國之間,因為一些誤解和誤會而開始一些事情,導(dǎo)致觸發(fā)危險的事件。
 
  施密特表示,目前沒有人在這方面進(jìn)行研究,但人工智能是如此強大。
 
  埃里克·施密特曾在2001年至2011年擔(dān)任谷歌首席執(zhí)行官,2011年至2015年擔(dān)任谷歌執(zhí)行董事長,2015年至2017年擔(dān)任Alphabet公司執(zhí)行董事長,2017年至2020年擔(dān)任Alphabet技術(shù)顧問。
微信圖片_20220727091502
  2008年,在擔(dān)任谷歌董事長期間,施密特為巴拉克•奧巴馬(BarackObama)助選,隨后與埃里克•蘭德(EricLander)一起成為奧巴馬總統(tǒng)的科技顧問委員會(CouncilofAdvisorsonScienceandTechnology)成員。
 
  從2019年到2021年,施密特與羅伯特·O·沃克(RobertO.Work)共同主持了美國國家人工智能安全委員會(NationalSecurityCommissiononAI)。
微信圖片_20220727091505
  AI果真有那么危險嗎?
 
  人工智能和機器學(xué)習(xí)是一項令人印象深刻但經(jīng)常被誤解的技術(shù)。在很大程度上,它并不像人們認(rèn)為的那樣聰明。
 
  它可以制作出杰作級的美術(shù)作品,在《星際爭霸2》中擊敗人類,還可以為用戶撥打基本的電話,然而,試圖讓它完成更復(fù)雜的任務(wù),比如自動駕駛,卻進(jìn)展不太順利。
 
  施密特設(shè)想,在不久的將來,中國和美國都會對安全問題感到擔(dān)憂,從而迫使雙方就人工智能達(dá)成某種威懾條約。
 
  他談到了20世紀(jì)50年代和60年代,當(dāng)時各個國家通過外交手腕精心設(shè)計了一系列對地球上最致命武器的控制。但是,世界要達(dá)到制定《禁止核試驗條約》(NuclearTestBanTreaty)以及第二階段《限制戰(zhàn)略武器條約》(SALTII)和其他具有里程碑意義的立法的地步,需要經(jīng)歷幾十年的核爆炸,比如像廣島和長崎的核爆炸。
 
  美國在第二次世界大戰(zhàn)結(jié)束時用核武器摧毀的兩個日本城市、殺死了成千上萬的人,并向世界證明了核武器的永恒恐怖。
 
  隨后,蘇聯(lián)和中國也成功開發(fā)了核武器,隨后便誕生了相互保證毀滅(MAD),一種維持“危險平衡”的威懾理論,確保如果一個國家發(fā)射核武器,其他國家也有可能發(fā)射。
 
  到目前為止,人類還沒有使用這個星球上最具破壞性的武器,因為這樣做可能會摧毀全球的文明。
 
  目前人工智能有這樣的威力嗎?
 
  現(xiàn)在看來,人工智能還沒有證明自己具有核武器那樣的破壞力,但是許多掌權(quán)者害怕這種新技術(shù),人們甚至建議把核武器的控制權(quán)交給人工智能,這些人認(rèn)為人工智能比人類更適合作為核武器使用的仲裁者。
 
  所以人工智能的問題也許不在于它擁有核武器的潛在世界毀滅力量,人工智能的好壞取決于它的設(shè)計者他們反映了創(chuàng)造者的價值觀。
 
  人工智能存在經(jīng)典的“garbagein,garbageout”的問題,種族主義算法誕生種族主義機器人,人工智能也會產(chǎn)生偏見。
 
  DeepMind的首席執(zhí)行官戴米斯•哈薩比斯(DemisHassabis)比施密特更明白這個道理。
 
  DeepMind曾培養(yǎng)出一種能夠擊敗《星際爭霸2》(StarcraftII)玩家的人工智能,在LexFridman播客7月份的一次采訪中,F(xiàn)ridman問哈薩比斯如何控制像人工智能這樣強大的技術(shù),以及哈薩比斯本人如何避免被這種力量腐蝕。
 
  哈薩比斯的回答:“人工智能是一個太大的想法,”他說,“重要的是誰創(chuàng)造了(人工智能),他們來自哪種文化,他們有什么價值觀,他們是人工智能系統(tǒng)的建造者。人工智能系統(tǒng)會自己學(xué)習(xí)......但是這個系統(tǒng)的文化和創(chuàng)造者的價值觀會在這個系統(tǒng)中殘留下來。”
 
  人工智能是其創(chuàng)造者的反映,120萬噸級的爆炸不可能把一座城市夷為平地,除非人類教它這么做。
 
  
 
 
聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負(fù)責(zé)。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與中國機器人網(wǎng)(www.baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
電話:021-39553798-8007
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行
?