国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫(kù)卡  碼垛機(jī)器人  機(jī)械手 

機(jī)器人三定律存缺陷 機(jī)器人是人類的末日?

   日期:2014-05-06     來源:果殼網(wǎng)    作者:dlj     評(píng)論:0    
標(biāo)簽:

好的開端?

鑒于阿西莫夫三定律是第一個(gè)真正試圖解決人工智能行為問題的方案,那么就算是超級(jí)人工智能,它能不能也起到一定效果——或者至少有所啟迪呢?

“老實(shí)說,我真沒從機(jī)器人三定律里獲得什么靈感,”海爾姆說。“機(jī)器倫理學(xué)的共識(shí)是,它無法成為機(jī)器倫理的合適基礎(chǔ)。”三定律的確廣為人知,但現(xiàn)實(shí)中無論是AI安全研究者還是機(jī)器倫理學(xué)家,都沒有真的使用它作為指導(dǎo)方案。

“原因之一是這套倫理學(xué)——我們稱之為‘義務(wù)倫理學(xué)’(deontology)——作為倫理基礎(chǔ)是行不通的。依然有幾個(gè)哲學(xué)家試圖修復(fù)義務(wù)倫理學(xué)體系,但同一批人常常也熱衷于‘智能設(shè)計(jì)’或者‘神命論’之類的東西,”海爾姆說,“沒幾個(gè)人嚴(yán)肅對(duì)待他們。”

義務(wù)倫理學(xué)

按照義務(wù)倫理學(xué),一項(xiàng)行為合不合道德,只決定于行為本身是否符合幾條事先確定的規(guī)范,和行為的結(jié)果、動(dòng)機(jī)等等完全無關(guān)。

他總結(jié)了三定律的幾處缺陷:

·內(nèi)在的對(duì)抗性

·基于有缺陷的倫理框架(義務(wù)倫理)

·不被研究者接受

·哪怕在科幻文學(xué)里也會(huì)出問題

格策爾表示贊同。“設(shè)立三定律的目的就是以有趣的方式出問題,這也正是為何圍繞它們的小說如此有趣,”他說,“所以三定律只在這個(gè)意義上有指導(dǎo)作用:它 告訴我們,用具體的定律來規(guī)范道德倫理是必定行不通的。”三定律在現(xiàn)實(shí)中完全無法運(yùn)作,因?yàn)槠渲械男g(shù)語(yǔ)太模糊,受制于主管解釋。

歧視機(jī)器人?

三定律的另一個(gè)側(cè)面是顯而易見的基質(zhì)沙文主義——按照定律,就因?yàn)闄C(jī)器人的軀體是硅做的,不是血肉之軀,他們就必須遵從人類的需求,不管他們有多么強(qiáng)大的能力也沒用。

“百分之百,”格策爾說,“阿西莫夫的未來社會(huì)是光天化日的基質(zhì)沙文主義,人類擁有的權(quán)利比人形機(jī)器人的權(quán)利更多。三定律的目的就是維持這種社會(huì)秩序。”

但是,如果真的出現(xiàn)了和人類一樣聰明一樣可愛一樣有能力自主決策的機(jī)器人,我們還應(yīng)該因?yàn)樗麄兪?ldquo;人造”的而不給他們平等權(quán)利嗎?

海爾姆的視角略有不同,他認(rèn)為,如果我們真的身處這樣的場(chǎng)景,那我們已經(jīng)走得太遠(yuǎn)了。

“我認(rèn)為設(shè)計(jì)有意識(shí)、有自我覺知的人工智能或機(jī)器人,本身就是很不明智的,”海爾姆說,“而且,雖然那些電影小說里AI研究者常常‘不小心’就搞出了有 意識(shí)的人工智能,我認(rèn)為這在現(xiàn)實(shí)中不可能發(fā)生。人們不可能純靠好運(yùn)碰上意識(shí),需要大量的努力和知識(shí)才行。而且大部分AI研究者都是遵循倫理的人,他們會(huì)避 免創(chuàng)造出哲學(xué)家所謂‘有道德意義的存在體’。畢竟,他們完全可以創(chuàng)造出不具有內(nèi)在道德問題的高階思考機(jī)器嘛。”

因此,關(guān)于設(shè)計(jì)不對(duì)稱定律、管理機(jī)器人價(jià)值的問題,海爾姆并不太在意。他認(rèn)為未來的AI研究者只需少許道德約束即可。

“話雖如此,我認(rèn)為人類也是原子組成的,所以理論上也可以人工合成一種生命形態(tài)或者機(jī)器人,讓它擁有道德意義,”海爾姆說,“我希望沒人會(huì)真的這么做, 大部分人應(yīng)該也不會(huì)做。但恐怕不可避免地,總會(huì)有些好炫耀的傻瓜為了追名逐利而第一個(gè)做些什么事情——任何事情——哪怕是如此不道德、如此愚蠢的事情。”

三定律2.0?

三定律有顯而易見的缺陷,能否用修正或者補(bǔ)丁之類的挽救它呢?而且確實(shí)有很多科幻作家這么嘗試過,多年來有不少修正版本。

“不,”海爾姆說,“三定律不會(huì)有補(bǔ)丁。不存在能挽救它的辦法。”

除了太不自洽、無法實(shí)現(xiàn)之外,海爾姆說,三定律本質(zhì)上是對(duì)抗性的。

“我更偏愛的機(jī)器倫理路線是更合作性的、更自我一致的,而且更多使用間接規(guī)范性,這樣就算系統(tǒng)一開始誤解了或者編錯(cuò)了倫理規(guī)范,也能恢復(fù)過來,抵達(dá)一套合理的倫理準(zhǔn)則。”海爾姆說。

格策爾呼應(yīng)了海爾姆的觀點(diǎn)。

“定義一套倫理原則、把它作為機(jī)器倫理的核心路線,恐怕毫無希望——如果我們討論的是靈活的人工通用智能(AGI)的話,”他說。“如果AGI擁有直 覺、靈活、適應(yīng)性的倫理觀,那這些倫理原則對(duì)它來說可以是有用的基本指南,幫助它使用它自己的倫理直覺。但這樣的話,這些原則就不是它的核心了,只是一個(gè) 側(cè)面。人類就是這樣的——我們學(xué)會(huì)的倫理規(guī)范是有用的,但用法只是指引我們的倫理本能和直覺而已。”

如何建造安全AI?

既然定律路線行不通,那么應(yīng)該怎樣保證AI不會(huì)毀滅人類呢?

“AGI研究者里,很少有人相信能造出一個(gè)百分之百安全毫無隱憂的系統(tǒng),”格策爾說,”但這對(duì)于大部分人來說并非什么困擾,因?yàn)檎f到底,人生中也沒什么東西是百分之百的。”

格策爾相信,一旦我們?cè)斐隽嗽缙贏GI系統(tǒng),或者至少是比我們現(xiàn)有東西強(qiáng)大得多的AGI原型機(jī),我們就可以通過研究和實(shí)驗(yàn)獲得多得多的AGI倫理學(xué)信息。

“希望這種方式下我們能建立良好的AGI倫理學(xué),讓我們能更清晰地理解這個(gè)話題,”他說,“但目前為止,研究AGI倫理理論還是很困難的,因?yàn)槲覀兗葲]有很好的倫理理論,也沒有很好的AGI理論。”

他又說:“對(duì)于那些看《終結(jié)者》看多了的人,這聽起來估計(jì)有些嚇人——我們?cè)噲D建立AGI,但卻認(rèn)為只有在我們?cè)囼?yàn)過原始AGI系統(tǒng)之后才能得到相關(guān)的堅(jiān)實(shí)理論。然而,絕大部分激進(jìn)的進(jìn)展都是這么發(fā)生的。”

電影《終結(jié)者》可能是最著名的機(jī)器人末日?qǐng)鼍爸唬焊叨劝l(fā)達(dá)的機(jī)器人和人類開戰(zhàn),毀滅了大部分人類文明。

電影《終結(jié)者》

“當(dāng)一群聰明的原始人發(fā)明語(yǔ)言的時(shí)候,他們是等到一套成熟的語(yǔ)言形式理論出現(xiàn)、用它預(yù)測(cè)了語(yǔ)言引入社會(huì)后的未來影響,然后才動(dòng)手的嗎?”

這一點(diǎn)上兩位受訪者又取得了一致。海爾姆所在的機(jī)器智能研究所花了很長(zhǎng)時(shí)間考慮這件事情——簡(jiǎn)短的答案是,這還不是個(gè)工程學(xué)問題。需要更多研究。

“這么說是什么意思?我在機(jī)器智能研究所的同事盧克·穆豪森總結(jié)得很好。他說,問題總是從哲學(xué)領(lǐng)域移到數(shù)學(xué)領(lǐng)域再到工程領(lǐng)域,”海爾姆說,“哲學(xué)提出有 意義的問題,但這些問題常常太不精確,沒人能知道一個(gè)新答案是否意味著我們又進(jìn)了一步。但如果我們能把重要的哲學(xué)問題——智能,本體,價(jià)值——復(fù)述成足夠 精確的數(shù)學(xué),要么對(duì)要么錯(cuò);接下來就可以建立模型,在此基礎(chǔ)上成功擴(kuò)展,總有一天能夠用作真實(shí)世界的工程目的。”

海爾姆說,這是科學(xué)和哲學(xué)里的一個(gè)真正難題,但是進(jìn)步依然是可能的:“我懷疑哲學(xué)能不能只靠自己解決它,畢竟過去三千年里它似乎沒有什么特別顯著的進(jìn)展。但是我們也不能憑現(xiàn)有這點(diǎn)粗淺的了解就去編程。我們還需要大量的理論研究。”

 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行