
相互保證毀滅(MutuallyAssuredDestruction,簡稱M.A.D.機制,亦稱共同毀滅原則)是一種“俱皆毀滅”性質(zhì)的思想。對立的兩方中如果有一方全面使用則兩方都會被毀滅,被稱為“恐怖平衡”。
施密特將AI與核武器相對比,表示中美未來可能要締結(jié)類似于禁止“核試驗”相似的條約,以防止AI毀滅世界。
施密特:當(dāng)時我還很年輕,還很天真
7月22日,施密特在阿斯彭安全論壇(AspenSecurityForum)國家安全和人工智能專題小組會議上談到了人工智能的危險。
在回答一個關(guān)于科技中的道德價值的問題時,施密特解釋說,他自己在谷歌早期對信息的力量認(rèn)識還很天真。
然后,他呼吁科技要更好地符合其服務(wù)對象的道德和倫理,并將人工智能與核武器進(jìn)行了奇怪的比較。
施密特設(shè)想在不久的將來,中國和美國需要圍繞人工智能簽訂一些條約。
施密特說:“在50年代和60年代,我們最終制定了一個關(guān)于核試驗的‘意料之中’的規(guī)則,最終核試驗被禁止了。”
施密特認(rèn)為“這是一個信任或缺乏信任的平衡的例子,這是一個‘沒有驚喜’的規(guī)則”,他非常擔(dān)心美國和中國這兩個人工智能大國之間,因為一些誤解和誤會而開始一些事情,導(dǎo)致觸發(fā)危險的事件。
施密特表示,目前沒有人在這方面進(jìn)行研究,但人工智能是如此強大。
埃里克·施密特曾在2001年至2011年擔(dān)任谷歌首席執(zhí)行官,2011年至2015年擔(dān)任谷歌執(zhí)行董事長,2015年至2017年擔(dān)任Alphabet公司執(zhí)行董事長,2017年至2020年擔(dān)任Alphabet技術(shù)顧問。

2008年,在擔(dān)任谷歌董事長期間,施密特為巴拉克•奧巴馬(BarackObama)助選,隨后與埃里克•蘭德(EricLander)一起成為奧巴馬總統(tǒng)的科技顧問委員會(CouncilofAdvisorsonScienceandTechnology)成員。
從2019年到2021年,施密特與羅伯特·O·沃克(RobertO.Work)共同主持了美國國家人工智能安全委員會(NationalSecurityCommissiononAI)。

AI果真有那么危險嗎?
人工智能和機器學(xué)習(xí)是一項令人印象深刻但經(jīng)常被誤解的技術(shù)。在很大程度上,它并不像人們認(rèn)為的那樣聰明。
它可以制作出杰作級的美術(shù)作品,在《星際爭霸2》中擊敗人類,還可以為用戶撥打基本的電話,然而,試圖讓它完成更復(fù)雜的任務(wù),比如自動駕駛,卻進(jìn)展不太順利。
施密特設(shè)想,在不久的將來,中國和美國都會對安全問題感到擔(dān)憂,從而迫使雙方就人工智能達(dá)成某種威懾條約。
他談到了20世紀(jì)50年代和60年代,當(dāng)時各個國家通過外交手腕精心設(shè)計了一系列對地球上最致命武器的控制。但是,世界要達(dá)到制定《禁止核試驗條約》(NuclearTestBanTreaty)以及第二階段《限制戰(zhàn)略武器條約》(SALTII)和其他具有里程碑意義的立法的地步,需要經(jīng)歷幾十年的核爆炸,比如像廣島和長崎的核爆炸。
美國在第二次世界大戰(zhàn)結(jié)束時用核武器摧毀的兩個日本城市、殺死了成千上萬的人,并向世界證明了核武器的永恒恐怖。
隨后,蘇聯(lián)和中國也成功開發(fā)了核武器,隨后便誕生了相互保證毀滅(MAD),一種維持“危險平衡”的威懾理論,確保如果一個國家發(fā)射核武器,其他國家也有可能發(fā)射。
到目前為止,人類還沒有使用這個星球上最具破壞性的武器,因為這樣做可能會摧毀全球的文明。
目前人工智能有這樣的威力嗎?
現(xiàn)在看來,人工智能還沒有證明自己具有核武器那樣的破壞力,但是許多掌權(quán)者害怕這種新技術(shù),人們甚至建議把核武器的控制權(quán)交給人工智能,這些人認(rèn)為人工智能比人類更適合作為核武器使用的仲裁者。
所以人工智能的問題也許不在于它擁有核武器的潛在世界毀滅力量,人工智能的好壞取決于它的設(shè)計者他們反映了創(chuàng)造者的價值觀。
人工智能存在經(jīng)典的“garbagein,garbageout”的問題,種族主義算法誕生種族主義機器人,人工智能也會產(chǎn)生偏見。
DeepMind的首席執(zhí)行官戴米斯•哈薩比斯(DemisHassabis)比施密特更明白這個道理。
DeepMind曾培養(yǎng)出一種能夠擊敗《星際爭霸2》(StarcraftII)玩家的人工智能,在LexFridman播客7月份的一次采訪中,F(xiàn)ridman問哈薩比斯如何控制像人工智能這樣強大的技術(shù),以及哈薩比斯本人如何避免被這種力量腐蝕。
哈薩比斯的回答:“人工智能是一個太大的想法,”他說,“重要的是誰創(chuàng)造了(人工智能),他們來自哪種文化,他們有什么價值觀,他們是人工智能系統(tǒng)的建造者。人工智能系統(tǒng)會自己學(xué)習(xí)......但是這個系統(tǒng)的文化和創(chuàng)造者的價值觀會在這個系統(tǒng)中殘留下來。”
人工智能是其創(chuàng)造者的反映,120萬噸級的爆炸不可能把一座城市夷為平地,除非人類教它這么做。