国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 發(fā)那科機(jī)器人  工業(yè)  機(jī)器人  上海  ABB機(jī)器人  自動化  工業(yè)機(jī)器人  工業(yè)機(jī)器人展  機(jī)器  展會 

2029 年機(jī)器超越人類:未來學(xué)家 Ray Kurzweil 談圖靈測試、大腦延伸以及 AI 倫理

   日期:2017-11-20     來源:36氪    作者:dc136     評論:0    
    近日,提出了奇點概念的未來學(xué)家,現(xiàn)為Google工程總監(jiān)的Ray Kurzweil跟《連線》雜志主編Nicholas Thompson在美國外交關(guān)系委員會進(jìn)行對話。他們談到了Kurzweil的加速回報定律的影響,奇點到來的時間、AI對人類的增強以及可能會引發(fā)的生存危機(jī)和倫理問題。以下為對話實錄。
2029 年機(jī)器超越人類:未來學(xué)家 Ray Kurzweil 談圖靈測試、大腦延伸以及 AI 倫理
  Nicholas Thompson:我們先從你對加速回報定律的解釋開始吧,這可是你協(xié)作和工作的基本理念。
 
  Ray Kurzweil:人類基因組計劃進(jìn)行到一半的時候,7年時間共收集了1%的基因。于是主流群體批評說:“我都告訴你們這是行不通的?,F(xiàn)在都7年了才完成1%;就像我們所說那樣,完成得要700年。”我當(dāng)時的反應(yīng)是:“哇,我們完成了1%了?那豈不是快要干完了?”因為1個百分點距離100%只用翻7番。此前每年都在翻番。的確這種情況得以延續(xù)。7年后,項目完成了。自從第一個基因組項目結(jié)束后情況還在延續(xù)——第一個基因組測序的花費是10億美元,現(xiàn)在已經(jīng)降到了1000美元。
 
  我只是提到了加速回報定律其中的一個潛在影響,因為它有很多漣漪效應(yīng)——這股引人注目的數(shù)字化革命背后是信息技術(shù)50%的通貨緊縮率。也就是說今天我可以用去年一半的價格獲得一樣的計算、通信、基因測序以及大腦數(shù)據(jù)。所以你可以用一半的價格買到比1、2年前好兩倍的iPhone或者Android手機(jī)。這些改善的性價比一半體現(xiàn)在價格上,一部分體現(xiàn)在了性能上。那么當(dāng)非洲的一個女孩用75美元買下一部智能手機(jī)時,這可以看成是75美元的經(jīng)濟(jì)活動,盡管其實它相當(dāng)于1960年時1萬億美元的計算,或者1980年的10億美元。里面還有價值數(shù)百萬美元的免費信息app,里面的一個百科全書就比我小時候攢了好幾年才能買得起的百科全書都要好得多。但這一切在經(jīng)濟(jì)活動上都視為0,因為它是免費的。所以我們根本就不計算這些產(chǎn)品的價值。
 
  所有這一切即將發(fā)生改變:我們準(zhǔn)備用3D打印機(jī)印制衣服。不是在今天;現(xiàn)在我們還有點處在3D打印的炒作階段。但到了2020年代初期,我們將可以印制衣服。到時候會有非常多開源的很酷的設(shè)計供你免費下載。時裝業(yè)還在,就像我們現(xiàn)在還有音樂業(yè)、電影業(yè)以及圖書業(yè)跟作為偉大的免費開源產(chǎn)品共存一樣。我們將可以利用垂直農(nóng)業(yè)用非常便宜的價格制造食物:用水培作物種出水果蔬菜,體外克隆肌肉組織來生產(chǎn)人造肉。第一個用這種方法做出來的漢堡已經(jīng)被消費掉了。它的價格還很貴,要幾萬美元,但非常好。不過這只是研發(fā)成本。所有這些不同的資源都會變成信息技術(shù)。最近有棟大樓是用像樂高積木那樣的模塊(用3D打印機(jī)制作)組裝起來的,一個3層樓高的辦公室只用幾天就造出來了。這會成為2020年代建筑的本質(zhì)。3D打印機(jī)將打印出我們所需要的物理實體。
 
  NT:我們來談?wù)勚悄?,比方說我口袋里的手機(jī)。它數(shù)學(xué)比我好。圍棋比我厲害。很多事情都強過我。不過它什么時候聊天也能比我厲害呢?什么時候采訪你的會是手機(jī)而不是我?
 
  RK:我們的確有可以進(jìn)行會話的技術(shù)。你知道,我在Google的團(tuán)隊做出了智能回復(fù)。我們寫了數(shù)百萬封電子郵件。它必須要理解要回復(fù)的郵件是什么意思,哪怕提議是很簡要的。不過你的問題其實相當(dāng)于圖靈測試。沒有簡單的自然語言處理技巧可以做這個。如果人類無從判斷出區(qū)別我們就認(rèn)為AI相當(dāng)于人類智能,你問的其實就是這個。這是我的一個關(guān)鍵預(yù)測。我一直都只講2029年的事情。1989年,在《智能機(jī)器時代》中,我把實現(xiàn)這個的時間界定在2020年代初期到2030年代末期之間;在1999年的《精神機(jī)器時代》中,我把時間進(jìn)一步明確到2029年。斯坦福的AI部門認(rèn)為這個時間令人望而卻步,于是他們舉辦了一場會議,AI專家的共識是這個時間需要好幾百年。25%的人認(rèn)為這永遠(yuǎn)也不會發(fā)生。我的觀點,以及AI專家一致的中位數(shù)觀點已經(jīng)變得越來越接近了,但這并不是因為我改變了看法。
 
  2006年的時候,在Dartmouth舉辦了一場會議,名字叫做AI@50。大家的共識是50年;我當(dāng)時說還要23年。我們還在Asilomar舉行了一次AI倫理會議,大家的共識是大約要20到30年,我當(dāng)時說要13年。我們?nèi)匀皇歉訕酚^的那個,但距離已經(jīng)沒那么大了,而且有越來越多的人認(rèn)為我太保守了。
 
  加速回報定律的一個關(guān)鍵問題我沒有提到:呈指數(shù)增長的不僅只有硬件,還包括軟件。我感覺越來越有信心,對于我們距離那個里程碑已經(jīng)不太遠(yuǎn)這一點,我認(rèn)為AI社區(qū)正在獲得信心。
 
  我們即將跟那個技術(shù),跟AI融為一體,讓我們變得更加聰明。事實上已經(jīng)如此。這些設(shè)備是大腦的延伸,大家也是這么認(rèn)為的,這是個新東西。僅僅幾年前大家還沒有這么看自己的智能手機(jī)。它們會進(jìn)入到我們的身體和大腦,但我認(rèn)為這種區(qū)分是武斷的。就算它們是在我們身體和大腦之外,也已經(jīng)是大腦的延伸了,而且還會讓我們更聰明更有趣。
 
  NT:你把這個框架跟政策制定者解釋一下,告訴他們應(yīng)該如何思考這一加速技術(shù),他們應(yīng)該做什么,不應(yīng)做什么。
 
  RK:對AI倫理、如何保證這項技術(shù)的安全的關(guān)注很多,就像當(dāng)今的很多討論一樣,這方面的討論兩極分化也很嚴(yán)重。實際上有關(guān)它的希望和危險我都討論過很久了。技術(shù)永遠(yuǎn)都是一把雙刃劍?;鹉茏屛覀兣停瑤臀覀儼咽澄镏笫欤材軣龤覀兊姆孔?。相比之下這些技術(shù)要強大得多。這個問題討論起來要很久,但我認(rèn)為我們應(yīng)該把它分成3個階段,至少我在思考的時候是這么樣的。首先是對有機(jī)會克服由來已久的貧困、疾病等折磨而感到高興。然后是警惕這些技術(shù)可能會具有毀滅性,甚至導(dǎo)致生存危機(jī)風(fēng)險。最后我認(rèn)為我們需要認(rèn)識到對于推進(jìn)這些技術(shù)要有道德緊迫感,因為盡管我們已經(jīng)取得了這些進(jìn)展,大家卻認(rèn)為情況在變得更加糟糕,但其實情況實在變好,不過我們還有很多的人類苦難有待克服。我們在關(guān)注危機(jī)的同時,唯有繼續(xù)進(jìn)步尤其是AI方面的進(jìn)步才能讓我們繼續(xù)克服貧困和疾病以及環(huán)境惡化問題。
 
  有一個好的框架可以做這件事。40年前,有一群愿景家既看到了生物科技的前途也看到了它的風(fēng)險,基本上他們做的事情相當(dāng)于對生物進(jìn)行重組讓其遠(yuǎn)離疾病和衰老。為此他們在Asilomar(阿西洛馬)會議中心舉辦了一場會議,也就是著名的阿西洛馬會議。會議討論了道德指南和策略——即如何保證這些技術(shù)的安全。現(xiàn)在,40年已經(jīng)過去了。我們正在受到生物科技的臨床影響。在今天這種影響還是涓涓細(xì)流,但未來10年會將會變成洪水滔天。迄今為止因為有意或無意濫用生物科技而受到傷害的人數(shù)為0。在如何處理推進(jìn)方面這是一個很好的模式。
 
  我們剛剛召開了AI倫理方面的阿西洛馬會議。很多這些道德指南,尤其是生物科技方面的道德之南,已經(jīng)被編撰成法律。所以我想這就是目標(biāo)。第一件要理解的事情是這個。極端主義者的想法不是“禁止這項技術(shù)”就是“得把節(jié)奏放慢。”這其實不是正確的做法。我們應(yīng)該用建設(shè)性的方式去引導(dǎo)它。這是有策略的,但很復(fù)雜,需要另行討論。
 
  NT:你可以想象一些規(guī)則,比方說國會可以要求從事特定技術(shù)的人必須開放數(shù)據(jù),護(hù)著必須愿意分享該數(shù)據(jù)集,并且至少對這些極其強大的工具允許市場競爭。你可以想象政府說:“其實應(yīng)該要有一個大的政府資助的選項,有點像OpenAI,但是應(yīng)該由政府運營。”你可以想象有一股龐大的全國性的基礎(chǔ)設(shè)施運動來開發(fā)這一技術(shù),這樣至少對公共利益很在意的人能夠控制其中的一點。你的建議如何呢?
 
  RK:我認(rèn)為開源數(shù)據(jù)和算法總的來說是個好的想法。Google把所有的AI算法都通過TensorFlow開源了。我認(rèn)為開源和持續(xù)立法的加速回報可以讓我們越來越接近理想。問題有很多,比如隱私問題就很難處理,我認(rèn)為做這一行的人通常都很關(guān)心這些問題。只是現(xiàn)在還不清楚正確的答案。我認(rèn)為我們希望繼續(xù)推進(jìn),但當(dāng)你權(quán)力如此之大時,哪怕意愿是好的也會有濫用的可能。
 
  NT:你擔(dān)心什么?你對未來的看法是非常樂觀的。但是你擔(dān)心什么呢?
 
  RT:我作為一名樂觀主義者而受到指責(zé),但是作為創(chuàng)業(yè)者你必須是樂觀主義者,因為如果你了解所有會碰到的問題的話大概就不想去做任何項目了。但我對這里面不好的地方是很關(guān)心的,并且也一直在寫,這些問題都是跟生死存亡相關(guān)的。這些技術(shù)非常強大,所以我的確很擔(dān)心,即便我是樂觀主義者。但我對我們能夠通過這一關(guān)是樂觀的。在不會遭遇困難局面的事情上我并不樂觀。二戰(zhàn)期間,有5000萬人死亡,當(dāng)時技術(shù)肯定加重了這個悲劇。但我認(rèn)為大家意識到我們正在取得進(jìn)展是很重要的。最近對26個國家的24000人進(jìn)行了調(diào)查。調(diào)查問到了“全球的貧困是惡化還是好轉(zhuǎn)?”的問題。90%的人都回答說變糟了,這是不正確的。只有1%的人正確回答出貧困率已經(jīng)下降了50%甚至更多。
 
  NT:觀眾里面的人應(yīng)該如何應(yīng)對自己的職業(yè)?他們即將步入一個有著全新技術(shù)的世界,這幫人應(yīng)該作何職業(yè)選擇?你的建議是什么樣的。
 
  RK:這個建議其實是老生常談的一個建議,那就是做你所愛,因為其實沒有一個領(lǐng)域不會受到影響或者不是這個故事的一部分。我們即將跟云端的模擬大腦新皮質(zhì)融為一體。它將會增強我們。其實已經(jīng)是這樣了。沒有我們現(xiàn)在手頭的這些大腦延伸的話誰還能做好自己的工作。情況還將繼續(xù)如此。大家說:“好吧,只有有錢人才能擁有那些工具。”但我要說:“是,像智能手機(jī)這樣的全球就有30億。”再過幾年會變成60億。這是奇妙的性價比爆發(fā)的作用。所以去找到你熱愛的東西。一些人的愛好比較復(fù)雜難以歸類,所以你要想辦法在你認(rèn)為可以產(chǎn)生影響的地方對這個世界作出貢獻(xiàn)。利用現(xiàn)有的工具。我想出加速回報定律的原因正是為了提前規(guī)劃我自己的項目好讓我能夠在它變得可行之前提前幾年做好準(zhǔn)備——去嘗試和預(yù)測技術(shù)的發(fā)展方向。大家忘了我們是從哪兒來的。僅僅幾年前,我們還只有一點看起來像智能手機(jī)這樣的設(shè)備,但用得不是很好。那場革命,還有移動app,5年前還幾乎沒有。也就是說,5的時間這個世界就變得很不一樣了,所以你得未雨綢繆,為火車到站做好準(zhǔn)備。”
 
  觀眾提問:對人性的可愛一面,對科學(xué)和探索方面已經(jīng)有了太多的強調(diào),我感到好奇的是朝著我們的機(jī)器人伙伴的動向。其中的黑暗面是什么?關(guān)于戰(zhàn)爭以及機(jī)器戰(zhàn)爭和暴力你怎么看?
 
  RK:關(guān)于這些平臺如何被用來放大人類傾向以及被操控我們已經(jīng)有很多了解了,而且有很多是我們最近才了解到的信息。AI是從例子中學(xué)習(xí)的。這個領(lǐng)域有句格言叫做生命從第10億個例子開始,而獲得例子的最好辦法是向人類學(xué)習(xí),所以AI經(jīng)常向人學(xué)習(xí)。但不總是如此。AlphaGo Zero就是自己跟自己下學(xué)會圍棋的,但這種做法未必總是可行,尤其是當(dāng)你在處理更加復(fù)雜的現(xiàn)實世界的問題時。目前業(yè)界,包括所有的主流公司和開源界正在進(jìn)行一項重大努力,那就是對AI去偏見,因為如果AI向人學(xué)習(xí)的話,人是有偏見的,這樣一來AI也會帶有偏見,我們必須克服性別和種族偏見。這其實可以是個目標(biāo)。作為人,我們從看到的所有東西中產(chǎn)生偏見,其中很多都是下意識的。然后作為受過良好教育的人,我們開始學(xué)習(xí),去認(rèn)識到自己的偏見并試圖克服偏見,我們自己的內(nèi)心可能會發(fā)生沖突。AI去偏見已經(jīng)發(fā)展成一個獨立的研究領(lǐng)域。這一類研究可以克服機(jī)器智能的問題。通過這些手段,機(jī)器智能其實可以比所效仿的人類沒那么多的偏見。盡管社交媒體對它的看法喜憂參半糾纏不清,但總體而言AI是非常有益的東西。我在機(jī)場走路的是總能看到每個2歲以上的孩子手里都拿著電子設(shè)備。這已經(jīng)成為了一個世界社區(qū),我認(rèn)為現(xiàn)在正在成長的這一代人比以往任何一代人都要更強烈地感受到自己是世界公民,因為其實他們在接觸世界的各種文化。
 
  NT:但是美國去年的氣氛卻不是跟世界走得越來越近。這種情況是人類走到一起的持續(xù)發(fā)展進(jìn)程中的一個短暫性現(xiàn)象嗎?還是說很多人都誤解了?
 
  RK:美國以及其他地方政治的兩級分化是不幸的。對于我們今天正在討論的那些事來說我并不認(rèn)為這是個問題。我的意思是說這個世界有過重大的暫時失常。二戰(zhàn)就是一次相當(dāng)大的中斷,但其實根本沒有影響到這些趨勢。對于特定的人和機(jī)構(gòu)我們也許有不喜歡的東西。但是這是可以討論的,你可以有你的聲音和觀點。目前我還沒有看到情況朝著不好的方向發(fā)展。我們討論的這類(AI)問題其實并沒有受到這些問題的影響。但是我擔(dān)心人類的生存危機(jī)問題,因為技術(shù)是把雙刃劍。
 
  觀眾提問:我的問題跟不平等有關(guān)。大多數(shù)人類歷史的很多階段的經(jīng)濟(jì)不平等性都是相當(dāng)高的。你認(rèn)為這方面20世紀(jì)是否屬于反常?技術(shù)額擴(kuò)散又會如何影響到這種不平等?
 
  RK:經(jīng)濟(jì)平等其實是在變好的。據(jù)世界銀行的數(shù)據(jù),過去20年亞洲的貧困已經(jīng)下降了90%。那些國家已經(jīng)從原始農(nóng)業(yè)經(jīng)濟(jì)發(fā)展成欣欣向榮的信息經(jīng)濟(jì)。非洲和南美的增長率要比發(fā)達(dá)世界高得多。不管你從哪一個時間片段去看都會存在不平等,但情況正在飛速朝著正確的方向發(fā)展。過去20年全球的貧困已經(jīng)下降了50%。而且還有很多其他的措施。大家說“數(shù)字鴻溝”,但其實沒有?;ヂ?lián)網(wǎng)、智能手機(jī)在非洲也非常強。這只是在過去幾年才發(fā)生的變化。所以我們正在朝著正確的方向前進(jìn)。任何一個時候都會有不平等的現(xiàn)象,會有人受苦,但數(shù)量正在朝著正確的方向發(fā)展。
 
  觀眾問題:從你的評論看你預(yù)計通用人工智能再過12年就將變成現(xiàn)實,你還好幾次提到盡管自己是樂觀的但多少對生存危機(jī)感到擔(dān)心,你能不能詳細(xì)解釋一下這究竟是什么意思?為了降低這種風(fēng)險,你認(rèn)為技術(shù)專家應(yīng)該做的最重要的一件事是什么。
 
  RK:生存危機(jī)的意思是說威脅到我們文明生存的風(fēng)險。人類面臨的第一個生存危機(jī)是核擴(kuò)散。我們過去曾經(jīng)有過幾次摧毀整個人類的能力?,F(xiàn)在有了這些新技術(shù),不難設(shè)想這些技術(shù)被利用來毀滅整個人類的場景。比方說生物科技。我們已經(jīng)有能力對生物進(jìn)行重組讓它遠(yuǎn)離疾病。免疫療法,這是癌癥治療非常令人興奮的突破——我認(rèn)為這是相當(dāng)革命性的,現(xiàn)在才剛剛開始——免疫療法對免疫系統(tǒng)進(jìn)行了重組,讓它跟蹤癌癥,而在通常免疫系統(tǒng)是不會這么干的。但生物恐怖分子也可以利用重組技術(shù)把一種病毒變得更加致命,傳染性更強,更加隱蔽,把它制造成超級武器。這是縈繞在40年前阿西洛馬會議上的一個幽靈。后來不斷有類似的會議讓這些道德指南和安全協(xié)議和策略變得越來越復(fù)雜,迄今為止這些做法是有效的。但是我們也在讓技術(shù)變得越來越復(fù)雜,所以那些指南也要不斷修訂。我們剛剛召開了AI倫理的第一次阿西洛馬會議。我們想出了一批大家都贊同的道德標(biāo)準(zhǔn)。其中有很多是比較含糊的。對于那些我們需要賦予高優(yōu)先級著重考慮。我們發(fā)現(xiàn)必須給軟件植入倫理價值觀。典型的例子是無人車。做無人車的全部動機(jī)在于它可以把人類司機(jī)導(dǎo)致的每年200萬的死亡數(shù)減少99%,但無人車會陷入到被迫做出倫理決斷的情況:它應(yīng)該駛向嬰兒車還是那對老年夫婦或者是撞墻可能導(dǎo)致乘客死亡?你有沒有那么一條道德指南指出不要殺死擁有該無人車的乘客?這種情況下不能發(fā)郵件給軟件設(shè)計師問“我該怎么辦?”吧。規(guī)則得內(nèi)置到軟件里面。所以這都是一些實際問題,圍繞著這個問題會衍生出一整個AI倫理。
 
  但還有一個風(fēng)險更高的生存危機(jī):AI武器化,這已經(jīng)不是未來的事情了。全世界的國防部都在應(yīng)用AI?,F(xiàn)在有人正在到處找人同意禁止自動化武器,這聽起來像是個不錯的主意,他們舉的例子是“我們都禁止了化學(xué)武器了,所以為什么不取締自動AI武器呢?”不過AI的情況稍微有點復(fù)雜,因為沒有炭疽和天花我們能活下去。取締這些是沒問題的。但自動武器是軍民兩用技術(shù)。運輸冷凍食品或者藥物到非洲醫(yī)院的Amazon無人機(jī)也可以用來運送武器。它們用的是同樣的技術(shù),這有點像已經(jīng)脫韁之馬一樣。所以說這個問題更加復(fù)雜,要考慮好如何處置。但目標(biāo)是保留希望控制風(fēng)險。沒有簡單的算法。我們不會有簡單的子程序可以放進(jìn)AI里面,告訴它們說“OK,把這個子程序放進(jìn)去。我會讓你的AI保持良性。”智能天生就是不受控制的。我的策略盡管不是萬無一失但也應(yīng)該行得通,那就是在我們自己的人類社會踐行那些我們希望看到的倫理道德。因為未來社會不是火星的智能機(jī)器入侵地球。未來誕生自我們現(xiàn)在的文明。未來將會是我們自身的增強。所以如果我們踐行今天所珍視的這種價值觀的話,那就是未來擁有一個體現(xiàn)這些價值觀的世界的最佳策略。
 
 
聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負(fù)責(zé)。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與中國機(jī)器人網(wǎng)(www.baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
電話:021-39553798-8007
更多>相關(guān)專題
0相關(guān)評論

推薦圖文
推薦專題
點擊排行
?