国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

我們該怎樣擔(dān)憂超級人工智能?

   日期:2016-09-14     來源:今日頭條    作者:zy     評論:0    
標(biāo)簽:
   
時間表的神話
 
  關(guān)于時間表的第一個神話:機(jī)器極大超越人類水平智能需要花多長時間?關(guān)于這個問題的一個常見錯誤概念是,我們認(rèn)為機(jī)器超過人類智能是毋庸置疑的。
 
  我們知道的一個流行的神話是本世紀(jì)內(nèi)會有超人人工智能出現(xiàn)。事實上,歷史充滿了技術(shù)的過度炒作。那些對我們許下承諾的現(xiàn)在會有的飛行汽車和聚變電站在哪里呢?過去人工智能也是被反復(fù)夸大,甚至該領(lǐng)域的一些創(chuàng)始人也在夸大。
 
  另一方面,一個流行的反神話是我們知道本世紀(jì)內(nèi)不會出現(xiàn)超人類的人工智能。研究者們已經(jīng)從各個方面估算了超人類人工智能離我們還有多遠(yuǎn),但是由于技術(shù)懷疑論者之前很多關(guān)于技術(shù)的悲觀語言都沒有實現(xiàn),所以我們還是無法斷定本世紀(jì)內(nèi)不會有超人類人工智能。
 
  還有一些調(diào)查問了研究者們按至少 50 % 的概率算,人類水平的人工智能距離我們還多少年。所有的這些調(diào)查都有同樣的結(jié)論:世界頂級專家們的意見不一致,所以我們根本不知道答案。例如,在 2015 波多黎各人工智能大會(2015 Puerto Rico AI conference)上的一次人工智能研究者意向調(diào)查中,平均(中位數(shù))的答案是 2045 年,但一些研究人員猜測需要幾百年或更長時間。
 
  還有一個神話是,擔(dān)心人工智能的人認(rèn)為要不了幾年,上述預(yù)言都能實現(xiàn)。但事實上,根據(jù)記錄大多數(shù)擔(dān)心超人類人工智能的人認(rèn)為至少還需要幾十年才能實現(xiàn)這些預(yù)言。但是這些人強(qiáng)調(diào)只要我們不是 100% 肯定本世紀(jì)不會出現(xiàn)超人類人工智能,最好還是要為意外啟動安全研究。很多涉及人類水平人工智能的安全問題都很棘手,需要幾十年才能解決。所以,現(xiàn)在就要開始研究安全技術(shù),而不是等到一些程序員灌了幾瓶紅牛決定開啟這些可能對人造成巨大傷害的人工智能的前一晚才開始著手研究安全措施。
 
  爭議的神話
 
  另一個常見的錯誤概念是擔(dān)心人工智能并擁護(hù)人工智能安全研究的人都是那些對人工智能不甚了解的盧德派。當(dāng)標(biāo)準(zhǔn)人工智能教科書(人工智能:一個現(xiàn)代化的方法, Artificial Intelligence: A Modern Approach)作者 Stuart Russell 在波多黎各人工智能大會演講中提到這個觀點(diǎn)時,引來了下面觀眾的放聲大笑。支持人工智能安全研究本身就有巨大爭議。事實上,為了支持一個適度投資人工智能安全研究,不需要讓人們相信人工智能會帶來高風(fēng)險,只要讓他們知道安全研究不是可忽略的就行了。就像如果你想讓一戶家庭購買家庭保險,只要向他們證明房屋火災(zāi)不是不可能發(fā)生的就行了。
 
  也許是媒體讓人工智能安全爭論看起來比現(xiàn)實更加具有爭議。畢竟,恐懼是可以賣錢的,用斷章取義的引用來宣告厄運(yùn)迫在眉睫的文章能產(chǎn)生比平衡各方觀點(diǎn)的客觀性言論能產(chǎn)生更多的點(diǎn)擊。結(jié)果是,從媒體文章的引用中獲取觀點(diǎn)的兩個人只知道對方的觀點(diǎn)很可能是想法上的分歧比較多。比如,一個技術(shù)懷疑論者只看了英國某小報報道的比爾蓋茨的某些觀點(diǎn)就錯誤的認(rèn)為蓋茨相信超級智能迫在眉睫。類似的還有,支持有益的人工智能運(yùn)動的人可能就只知道吳恩達(dá)說過自己不擔(dān)心人工智能就像不擔(dān)心火星人口過剩,這樣的人或許會錯誤地認(rèn)為吳恩達(dá)毫不關(guān)心人工智能安全問題,但是事實是,吳恩達(dá)關(guān)心這個問題。問題的癥結(jié)在于因為吳恩達(dá)的時間表估算的太長了,所以相較于長期問題,他很自然地傾向于優(yōu)先考慮短期內(nèi)人工智能面臨的挑戰(zhàn)。
 
  關(guān)于超人類人工智能風(fēng)險的神話
 
  「Stephen Hawking 警告機(jī)器人的崛起可能是人類的災(zāi)難。」看到這樣的標(biāo)題,很多人工智能研究者都會翻白眼。很多人都記不清看過多少類似的文章了。通常來說,這些文章都都會描述到一個拿著武器面目可憎的機(jī)器人,并建議我們要擔(dān)心機(jī)器人崛起后會殺了人類,因為它們開始有了意識變得邪惡起來。樂觀點(diǎn)說,這類文章著實讓人印象深刻,因為他們簡明扼要地總結(jié)了人工智能研究者不會擔(dān)心的情景,這個情景結(jié)合了三個獨(dú)立的錯誤概念:對意識、邪惡和機(jī)器人的憂慮。
 
  事實上,如果你被一輛無人駕駛車撞了,那么它是否有主觀意識對你來說意義也不大。同樣地,會影響我們?nèi)祟惖氖浅壷悄苋斯ぶ悄軙鍪裁矗皇撬闹饔^感受如何。
 
  害怕機(jī)器會變成魔鬼是另一種不相干的憂慮。真正需要擔(dān)心的不是它的惡意,而是能力。定義中的超級智能人工智能擅長達(dá)到任何目標(biāo),所以我們需要確保的是讓它的目標(biāo)始終與我們的目標(biāo)一致。人類一般不討厭螞蟻,但是我們比它們聰明太多,所以如果我們想建一座水電站大壩時有一座蟻山在那里,那就對螞蟻來說太糟了。有益的人工智能運(yùn)動的目標(biāo)是避免將人類置于螞蟻的地位。
 
  對意識概念的誤解與機(jī)器沒有目標(biāo)的神話有關(guān)。機(jī)器顯然能有狹義上的目標(biāo)——做出目標(biāo)導(dǎo)向的行為,比如,熱跟蹤導(dǎo)彈被最簡潔地解釋為以擊中目標(biāo)為目標(biāo)。如果你感到被一臺目標(biāo)和你不一致的機(jī)器威脅了,而給你帶來的麻煩的正好是狹義上的目標(biāo),不是機(jī)器是否有意識,也不是它感受到的目標(biāo)感。如果熱跟蹤導(dǎo)彈正在追蹤你,你大概不會辯解:「我不擔(dān)心,因為機(jī)器沒有目標(biāo)!」
 
  我同情 Rodney Brooks 和其他被聳人聽聞的小報妖魔化的機(jī)器人先驅(qū),這對他們不公平,因為一些記者看起來總是盯著機(jī)器人不放,在文章中把機(jī)器人描繪成長著紅色眼睛面目猙獰的金屬怪獸。 事實上,有益的人工智能運(yùn)動主要關(guān)心不是機(jī)器人而是智能本身:尤其是與我們目標(biāo)不一致的智能。給我們帶來麻煩與我們目標(biāo)不一致的超人類人工智能不需要機(jī)器人身體,僅僅是一個互聯(lián)網(wǎng)連接或許就能智勝金融市場,在發(fā)明上超越人類研究員、操縱人類領(lǐng)袖、甚至設(shè)計出我們無法理解的武器。即便造不出一個這樣的實體機(jī)器人,一個超級智能和超級富有的人工智能也可以很容易地收買或操縱許多人,讓他們在不知不覺中按照它的意思做事。
 
  這個機(jī)器人誤解還與機(jī)器不能控制人類的神話有關(guān)。智能可以實現(xiàn)控制:人類控制老虎不是因為我們更強(qiáng)壯,而是因為我們更聰明。這意味著,如果我們放棄人類作為地球上最聰明物種的地位,我們也就可能放棄了控制權(quán)。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點(diǎn)擊排行