国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

機器人的崛起:忘了邪惡的AI吧 真正的危險其實更加隱蔽

   日期:2016-09-12     來源:人工智能學家    作者:zy     評論:0    
標簽:
   導讀: AI帶來的真正危險——至少在近期內(nèi)——是更為隱蔽的。相比機器人獲得自主意識而主動反抗人類的命令并崛起,更有可能發(fā)生的情況是,它們在執(zhí)行人類的命令時無意地傷害了人類或者帶來麻煩。正因為認識到了這一點,加州大學伯克利分校本周成立了一個研究中心,專門研究如何建立對人類友好的AI。
 
  “相比機器人主動反抗人類的命令,更有可能發(fā)生的情況是,它們在執(zhí)行人類的命令時無意地傷害了人類或者帶來麻煩。”
 
  我們看到人工智能的崛起時,很容易進入反烏托邦主義的情節(jié)之中,認為有意識的機器會起來反抗創(chuàng)造了它們的人類??苹米髌分谐霈F(xiàn)的反面角色,如《終結者》里的 “天網(wǎng)”和《2001:太空漫游》中的哈爾,要對人類的這種情節(jié)負責。
 
  但是,AI帶來的真正危險——至少在近期內(nèi)——是更為隱蔽的。相比機器人獲得自主意識而主動反抗人類的命令并崛起,更有可能發(fā)生的情況是,它們在執(zhí)行人類的命令時無意地傷害了人類或者帶來麻煩。正因為認識到了這一點,加州大學伯克利分校本周成立了一個研究中心,專門研究如何建立對人類友好的AI。
 
  本周新成立人類友好型AI研究中心,由開放慈善項目贊助550萬美元作為啟動資金,由計算機科學教授、人工智能先驅Stuart Russell領導。他迅速澄清了研究方向與科幻小說所描述的威脅之間“無理的、聳人聽聞的”關聯(lián)。
 
  “危險不會來自于機器突然發(fā)展出的惡意的自主意識,”他說,“重要的是你要知道,我們不是要阻止這樣的事,因為我們對于意識本身是什么還一無所知。”
 
  Russell在人工智能領域聲名遠揚,他在2015年發(fā)表了一份公開信,號召研究者超越增強AI能力的研究目標,并考慮如何讓AI在社會上發(fā)揮有益的影響。這份公開信已經(jīng)有超過8000位科學家和企業(yè)家在上面簽名,其中包括物理學家史蒂芬·霍金、企業(yè)家埃隆·馬斯克和蘋果公司合伙人史蒂夫·沃茲尼克。
 
  “(AI研究)可能帶來的好處是巨大的,因為人類文明發(fā)展的終極產(chǎn)品是人類的智能;我們無法預測我們通過AI提供的工具來放大我們的智慧能夠達到什么樣的成就,但起碼消除貧困和疾病是不難想象的。”公開信中這樣寫道。
 
  “由于AI具有極大的潛力,因此重要的是研究如何從它身上獲得幫助,同時還要避免可能出現(xiàn)的隱患。”
 
  正是這樣的想法,促成了這個新成立的研究中心。
 
  到現(xiàn)在為止,AI主要被應用于非常有限的環(huán)境中,如下國際象棋和圍棋、識別圖片中的物體,在這些應用環(huán)境中AI能夠造成的破壞和傷害是非常有限的。如果AI開始在現(xiàn)實世界中做出關于我們切身利益的決定,這種風險就會高得多。
 
  “一旦你把AI放到真實世界中,放到無人駕駛汽車、數(shù)字助理等應用中……當AI開始幫你購買對你利益有影響的物品、幫你取消約會時,它們的價值觀立場必須保證和人類一致。”Russell說。
 
  他舉自動駕駛汽車為例,說明他們研究中心試圖解決的問題。假設一個人在設計自動駕駛汽車系統(tǒng)時,設定了不允許闖紅燈的規(guī)則,但這個智能系統(tǒng)可能會黑進交通燈的控制系統(tǒng),讓所有交通能變綠。這樣的話,這個無人駕駛汽車的智能系統(tǒng)雖然按照規(guī)則行事,但顯然不是人類希望的結果。類似地,為一個套利基金設計的人工智能,被設置為讓其投資組合的價值最大化,可能會被短期消費型股票刺激,而長期持有國防類股票,然后引起戰(zhàn)爭——如 WernerHerzog最新的紀錄片中埃隆·馬斯克表達的那樣。
 

 
  “甚至當你認為已經(jīng)通過防御系統(tǒng)限制了你的AI系統(tǒng)能做的事時,它還可能會在其中找到漏洞,就像人們總會找到法律的漏洞進行偷稅漏稅一樣。你會希望AI系統(tǒng)不要主動尋找規(guī)則的漏洞。”Russell說。
 
  “問題不在于意識,而在于權限。我們賦予機器很大的權限,希望它來完成某個目標,但它在完成目標的過程中可能會引起災難。”
 
  為了應對這些問題,Russell和研究中心的同事打算讓AI系統(tǒng)觀察人類的行為,并嘗試理解人類的真正目的是什么,然后根據(jù)人類的目的來行事,并且從失誤中吸取經(jīng)驗。摒棄了為機器提供一長串需要遵守的規(guī)則的做法,他們只告訴機器主要的目標就是做人類想讓他們做的事。
 
  這聽起來很簡單,但這是過去的50年來工程師從未嘗試過的建立系統(tǒng)的方式。
 
  不過如果AI系統(tǒng)被設計為用這種方式學習人類的目標,就能夠保證它們一直處于人類的控制之下,即使它們的能力已經(jīng)超過人類。
 
  除了通過攝像頭等感應器直接觀察人類,機器人還能通過閱讀歷史文獻、法律檔案、小說、報紙,甚至觀看視頻電影等方式來了解人類。它們能夠從中建立起對人類價值觀的理解。
 
  這對機器來說不是容易的事。“人類是非理性的、不連續(xù)的、意志不堅定的、計算能力有限的、混雜的并且有時候是十分邪惡的。”Russell說。
 
  “一些人是素食主義者,另一些人卻愛吃多汁的牛排。我們的表現(xiàn)從來不能接近完美,這個事實是我們研究中的一個難點。”
 
 
更多>相關資訊
0相關評論

推薦圖文
推薦資訊
點擊排行