国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

霍金:人工智能的威脅就像核武器,世界將發(fā)生10大變化!

   日期:2018-01-03     來源:洞悉數(shù)據(jù)經(jīng)濟    作者:dc136     評論:0    
標簽: 人工智能 霍金
霍金:人工智能的威脅就像核武器,世界將發(fā)生10大變化!
       著名科學家霍金,被譽為“宇宙之王”,他認為:人類迄今為止最為深刻的影響就是人工智能的崛起,對于人工智能,他有以下十點深刻的思考:
 
  01
 
  在我的一生中,我見證了很多社會深刻的變化。其中最深刻,同時也是對人類影響與日俱增的變化就是人工智能的崛起。人工智能可能是人類文明史上最偉大的事件,它要么是人類歷史上最好的事,要么是最糟的。如果我們不能學會如何避免風險,那么我們會把自己置于絕境。
 
  如果有人設(shè)計計算機病毒,那么就有人設(shè)計不斷自我完善、直到最終超越人類的人工智能,其結(jié)果將是一種新的生命形式。
 
  人工智能的真正風險不是它的惡意,而是它的能力。一個超智能的人工智能在完成目標方面非常出色,如果這些目標與我們的目標不一致,我們就會陷入困境。”
 
  02
 
  人工智能對人類的影響,可以從短期、長期兩方面來分別討論。
 
  短期擔憂——智能自主武器、隱私
 
  人工智能的全方位發(fā)展可能招致人類的滅亡。比如最大化使用智能性自主武器。
 
  目前,世界上九個核大國可以控制大約一萬四千個核武器,它們中的任何一個國家都可以將城市夷為平地,放射性廢物會大面積污染農(nóng)田,最可怕的危害是誘發(fā)核冬天,火和煙霧會導致全球的小冰河期。
 
  這一結(jié)果使全球糧食體系崩塌,末日般動蕩,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任。正是科學家發(fā)明了核武器,并發(fā)現(xiàn)它們的影響比最初預想的更加可怕。
 
  除此之外就是隱私的擔憂。由于人工智能逐漸開始解讀大量監(jiān)控數(shù)據(jù),這些都會被機器人洞察的一覽無余。
 
  03
 
  長期擔憂——人工智能系統(tǒng)失控的潛在風險
 
  人工智能遵循的一個邏輯是,“計算機在理論上可以模仿人類智能,然后超越”。這一天很快會到來。
 
  未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志。
 
  我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。但事實就是:聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。
 
  人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經(jīng)濟帶來極大的破壞。
 
  04
 
  在過去二百年中,人口增長率是指數(shù)級的,目前這一數(shù)值約為1.9%。 這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。
 
  這樣的指數(shù)增長不能持續(xù)到下個千年。到2600年,世界將擁擠得“摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。
 
  我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。人類作為獨立的物種,已經(jīng)存在了大約二百萬年。我們的文明始于約一萬年前,其發(fā)展一直在穩(wěn)步加速。如果人類想要延續(xù)下一個一百萬年,我們就必須大膽前行,涉足無前人所及之處!
 
  05
 
  在某種程度上,今天的情況就如同1492年前的歐洲。當時的人們很可能堅信,哥倫布的探險注定是徒勞無功。 然而,新世界的發(fā)現(xiàn),對舊世界帶來了深遠的影響。對于那些被剝奪權(quán)利地位、走投無路的人來說,新世界成為了他們的烏托邦。
 
  人類向太空的拓展,甚至將會產(chǎn)生更深遠的影響,這將徹底改變?nèi)祟惖奈磥?,甚至會決定我們是否還有未來。它不會解決地球上任何迫在眉睫的問題,但它將提供解決這些問題的全新視角,讓我們著眼于更廣的空間,而不是拘泥眼下。
 
  06
 
  當我們進入太空時,會有怎樣的發(fā)現(xiàn)呢?
 
  會找到外星生命,還是發(fā)現(xiàn)我們終將在宇宙中踽踽獨行?我們相信,生命在地球上是自然而生的,是在漫長的進化后,實現(xiàn)了與地球資源的高度契合。因此,在其他條件適宜的星球上,生命的存在也必定是可能的。
 
  去年,我們推出了長期研發(fā)計劃——“突破攝星”,目標是讓星際旅行變成現(xiàn)實。“突破攝星”是人類初步邁向外太空的真正機會,為了探索和考量移居太空的可能性。
 
  這項創(chuàng)新背后的想法,是以光束來驅(qū)動納米飛行器的前進。這樣產(chǎn)生的速度雖然不及光速,但也能達到其五分之一,約合每小時1億英里。這樣的系統(tǒng)可以在一小時內(nèi)抵達火星,幾天內(nèi)到達冥王星,一周內(nèi)就可以追上并超過旅行者號探測器,并在僅二十年后到達半人馬座阿爾法星系。
 
  07
 
  人工智能的成功有可能是人類文明史上最大的事件。但人工智能也有可能是人類文明史的終結(jié),除非我們學會如何避免危險。
 
  我相信我們團結(jié)在一起,來呼吁國際條約的支持或者簽署呈交給各國政府的公開信,科技領(lǐng)袖和科學家正極盡所能避免不可控的人工智能的崛起。所以,監(jiān)管和立法在AI的發(fā)展過程中十分重要。
 
  08
 
  通過達爾文式的演化過程,侵略性深深根植于我們的基因之中。然而,如今的技術(shù)發(fā)展已經(jīng)加快到了某種程度,使這種侵略性可能會以核戰(zhàn)爭或生物戰(zhàn)爭的形式毀滅人類。我們需要用邏輯和理性來控制這種與生俱來的本能。
 
  你可能并不是一個討厭螞蟻的人,但也會無意中踩死螞蟻,而如果你負責一個水力發(fā)電的綠色能源項目,項目所在的區(qū)域內(nèi)也可能會有許多螞蟻巢穴被水淹沒,對螞蟻來說就非常不幸。我們要避免人類處于這些螞蟻的境地。
 
  09
 
  人類面臨的最大威脅是我們自身的弱點,即貪婪和愚蠢。這些人性的基本屬性,將使在人工智能時代的境況將變的更加糟糕,因為當機器被設(shè)定程序后就知道適可而止,知道就流勇退,但是人類很難,除非是那些極高修為的人,才能突破人性的弱點,但是機器人可以輕而易舉的回避這些弱點。
 
  10
 
  我們還應(yīng)該扮演一個角色,確保下一代不僅僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續(xù)發(fā)揮潛力,幫助人類創(chuàng)造一個更加美好的的世界。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行