国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

馬斯克再提醒:不受監(jiān)管的AI比核武器更危險

   日期:2017-08-14     來源:網(wǎng)易科技    作者:dc136     評論:0    
標(biāo)簽: 人工智能 馬斯克
馬斯克再提醒:不受監(jiān)管的AI比核武器更危險
   8月14日消息,據(jù)Futurism報道,科技大亨伊隆·馬斯克(Elon Musk)不久前在推特上發(fā)布了一張照片,引發(fā)人們對人工智能(AI)安全性的爭論。當(dāng)時馬斯克發(fā)布了有關(guān)賭博上癮廣告的圖片,上面寫著“最終機(jī)器會贏”,顯然他不僅僅指賭博機(jī)。更重要的是,馬斯克稱AI帶來的危險比朝鮮核武器更大。
馬斯克再提醒:不受監(jiān)管的AI比核武器更危險
  在隨后的推文中,馬斯克詳細(xì)闡述了對AI系統(tǒng)開發(fā)進(jìn)行監(jiān)管的必要性。這與他本月早些時候所說的話相呼應(yīng),當(dāng)時他說:“我認(rèn)為,任何對公眾構(gòu)成危險的事情,至少政府應(yīng)該有所了解,因?yàn)檎牧x無之一就是確保公共福利。沒有人喜歡受到監(jiān)管,但對公眾有危險的任何東西(包括汽車、飛機(jī)、食品以及藥品等)都應(yīng)該受到管制,AI也是如此。”
 
  瀏覽對馬斯克推文的評論發(fā)現(xiàn),似乎大多數(shù)人都在某種程度上同意馬斯克的意見。名為丹尼爾·佩德拉薩(Daniel Pedraza)的用戶認(rèn)為:“我們需要一個適應(yīng)性較強(qiáng)的框架,不需要固定的規(guī)則、法律或原則,這對管理AI有好處。這個領(lǐng)域正在不斷地變化和演進(jìn),任何固定的規(guī)則很快就會失效。”
 
  許多專家都不愿意AI發(fā)展得太快。它造成的威脅聽起來可能有點(diǎn)兒像科幻小說中的場景,但它們最終可能被證明是有效的。像史蒂芬·霍金(Stephen Hawking)這樣的專家早就發(fā)出警告,宣稱AI有終結(jié)人類的可能。在2014年采訪中,這位著名的物理學(xué)家說:“AI的發(fā)展可能預(yù)示著人類的終結(jié)。”他甚至認(rèn)為自動化的擴(kuò)散對中產(chǎn)階級是一種有害的力量。
 
  另一位專家、MetaMed Research的首席科學(xué)官邁克爾·瓦薩爾(Michael Vassar)指出:“如果遠(yuǎn)超人類的通用人工智能沒有受到謹(jǐn)慎監(jiān)管,可以肯定的是,人類將在非常短的時間內(nèi)滅絕。”
 
  很顯然,至少在科學(xué)界,AI的自由發(fā)展可能不符合人類的最佳利益。很多人已經(jīng)開始著手制定這些規(guī)則,以確保AI的發(fā)展“合乎道德規(guī)范”。電氣與電子工程師協(xié)會提出了他們的第一份規(guī)則草案,希望能引導(dǎo)開發(fā)人員朝著正確的方向發(fā)展。
 
  此外,在政府介入之前,科技巨頭們也正在制定自我監(jiān)管規(guī)則。來自谷歌、亞馬遜、微軟、IBM以及Facebook等大型科技公司的研究人員和科學(xué)家已經(jīng)開始討論,以確保AI造福于人類,而不是成為人類的生存威脅。
 
  當(dāng)然,要想達(dá)到足以威脅人類生存的程度,AI還有很長的路要走。然而,AI的進(jìn)步是突飛猛進(jìn)的。著名未來學(xué)家雷·庫茲韋爾(Ray Kurzweil)預(yù)言,計算機(jī)將在2045年變得比人類更聰明。然而,他并不認(rèn)為這是件可怕的事。也許,科技公司的自我監(jiān)管將足以確保這些擔(dān)憂變得毫無意義,或者最終可能需要政府的幫助。不管你的感覺如何,現(xiàn)在開始這些對話不算杞人憂天。但與此同時,也不要過于擔(dān)心,除非你是個有競爭力的玩家。
 
 
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點(diǎn)擊排行