人工智能發(fā)展到未來,會欺騙造出它的人類嗎?會對人類造成什么樣的影響?我們該允許機器人學(xué)會欺詐嗎?

以下是報告全部內(nèi)容:
一、為什么要有欺騙?
我們?yōu)槭裁匆衅垓_,希望讓設(shè)備自己撒謊?欺騙為什么這樣重要呢?因為有的時候欺騙不僅僅是人類關(guān)系的體系。在自然界中有很多的物種,生存的前提條件就需要有欺騙。為了存活,希望能夠捕獲到你的獵物,找到很好的配偶或者說其他的需求,你必須有欺騙的能力。在特定的情況下,欺騙的需求是必要的,它不是最好的方式,但是一個層面。
有的時候在很多的層級上必須非常的智能,我們有圖靈測試,實際上它自己就是一個欺騙,一個設(shè)備被使用或者說設(shè)備來欺騙你——人,作為對方來講,讓你受到欺騙,認為他也是一個欺騙,這就是圖靈測試的目的。
1、欺騙對自己有利
這個是自然界的情況。首先是一個斷翅的展示,這個鳥兒會假裝它的翅膀斷了,讓捕獵者朝著它去,不會打擾到它的鳥窩;猩猩像人類一樣,開始給它的媽媽梳理毛發(fā),就像兒子孝順母親。媽媽也利用了這一點,然后把它的工具給偷走,偷來之后把堅果敲開了。
有的時候這些動物確實有欺詐的行為,有我們?nèi)祟惖囊恍┘賱幼?。通過欺騙的方式來愚弄你的對手,像橄欖球或者美式足球都會這樣來誤導(dǎo)別人,假動作你成功了,作為團隊成員的話,你會歡呼,因為最后你贏得了比賽,但是你的對手不高興。
2、欺騙對對手有利
還有另外一個例子,欺騙對我們的對手有利。你要哄你的小孩子吃蔬菜,你通過欺騙的方式讓你的小孩子能夠吃蔬菜,這也是通過欺騙來幫助你的對象,并不是說通過欺騙來迷惑你的對象。從社會的角度來說,我們是需要這種欺詐的,讓別人也會喜歡你,這是一個很好的社會的智能。我們的機器人是不是也要和人一樣有社交的欺詐呢?
二、機器人是否需要欺騙?
1、社交中的欺騙
這個機器人也是非常酷的,就像一個大大的雞蛋,轉(zhuǎn)來轉(zhuǎn)去。他問這個機器人“你的誠實參數(shù)是多少”,“我的誠實參數(shù)是90%”。絕對的誠實在外交上是不正確的,在整個的溝通上也不是安全的。我們可以來調(diào)整一下我們關(guān)于誠實的一個定義注解或者說不誠實的注解。
另外研究機器人欺詐也是一項非常有意思的工作,演進的算法出現(xiàn)了這樣的欺詐,能夠誘開這個食物源,像石頭、剪刀、布這樣的機器人欺騙。如果說這個機器人智商高的話,它就會用欺詐。
2、軍事中的欺騙
所有的戰(zhàn)爭就是通過欺詐完成的,從政治角度來說,這種欺詐令人討厭。但是戰(zhàn)爭當(dāng)中我們要有這樣的欺詐,這是光榮的事情。
還有回到歷史的記錄,這是我們宣言,歷史當(dāng)中的宣言。比如說猶太教或者基督教或者其他的,比如特洛伊木馬的傳說都是一些欺詐,有各種各樣欺詐的工作,各種宗教都有。美國他們會有戰(zhàn)場的欺詐條令,就是教會他們所有的士兵都必須知道這樣的欺詐條令。而在中國也會有中國軍隊也有這樣欺詐的訓(xùn)練,兵不厭詐。
三、欺詐模型與理論、算法
像這樣一個假的溝通對整個欺詐者會有利的。那為什么我們是這樣的呢?為什么要欺詐呢?
一開始我也進行了這樣的研究,還有我的畢業(yè)生,我們進行思考,如何讓我們的機器人能夠相信人?如何讓他相信這個司令官?司令官不僅僅要讓機器人做正確的事情,還會告訴機器人做不正確的事,然后我們就有這樣的模型。我們識別到,其實欺詐,也是信任的另一面。如果是一個很好的指導(dǎo)官,他會告訴你,你要做的第一件事就是要獲得信任才能獲得欺騙。
這里有一個說法,這是人類心理學(xué)家的算法,比如說相互依賴,就是一個前提。一個欺騙者,他有假的溝通,他的對象或者是他所要欺騙的機器人或者人,他們必須要能夠解釋這樣的信息。那么當(dāng)然也有各種不同的欺詐,比如像松鼠,作為我們研究欺詐的一個模型。
在我們整個研究方法里,這叫做互相依賴的理論,這里當(dāng)然有其他好多的維度,我們用了沖突和依賴。我們這里有一對這樣的代表,一旦出現(xiàn)了這樣的沖突,你有了我想要的東西,或者我這里有你想要的東西,這就是一個沖突,有了這樣的沖突,然后有這樣的依賴,我們都依賴這樣的資源。那么,欺詐就發(fā)生了一個作用了。
我們所發(fā)生的作用,我們要做兩件事,一個是我們決定什么時候欺騙,然后要決定如何去欺騙。你不可能就是隨機地做,我們必須要找定一個時機?;ハ嘁蕾嚨睦碚?,我們進行這樣的影射,有這樣一個區(qū)域,這里有一個非常強大的依賴的結(jié)果,還有一個高度沖突的結(jié)果。還有一個半圈,這是一個三角形,這里是一個參數(shù)。這是一個誠實的參數(shù),這是一個影片當(dāng)中真實的參數(shù)。
當(dāng)然如果這個區(qū)域非常小的話,不會欺詐。如果這個區(qū)域很大的話,就會有更多的欺詐。所以我們有調(diào)解的能力讓機器人或者相應(yīng)的代理做到這里,有這樣的沖突和依賴性。我不是談技術(shù)的東西,只拋磚引玉,有很多的論文都可以讀一下,還有相應(yīng)的影射以及游戲的理論各種各樣的東西。
底部這條線,等會兒給大家看一下,我們必須要有這樣的能力能夠影射,我們是用這樣的模型,并不一定重復(fù)的,我們必須要使用我們的代理信任模型,你建立了這樣的理解,其他的代理思維必須要有這樣的信任,這是我們的理論。還有伙伴的模型,在這個過程當(dāng)中也非常重要,結(jié)成伙伴關(guān)系,如果我們做這件事情,我們要欺騙你,我們必須先做什么,比如我的模型是畫的話,這樣不會有效。如果是很好的毛性就有機會奏效了,所以要有一個非常好的模型,有了這個模型之后我們才能出其不意,這是一個建模。
我們這里有一個理論,這個理論非常重要,我可以相信你,其實我要知道你是可信任的,我們才能信任。我獲得你信任之后,我才可以欺騙你,非常有意思。在整個領(lǐng)域過程當(dāng)中這是一個前提,我們所做的方法就是我們有需要傳統(tǒng)游戲的模型,這里有相應(yīng)的結(jié)果,我們有一系列的行動,如果是正確的話,那么就一定有這樣的行動,然后人們跟我們一起合作。
我們有這些矩陣,在這些對象當(dāng)中,我們可以看一下具體有哪些不一樣,我們看到裝死,這是一個非常好的回報,如果你是裝死的話有很好的回報。你很快就能夠判斷它在裝死,或者是假裝的,他要逃走等等,像類似的場景等等。等會兒跟大家介紹一下我們所做的實驗。
這是另外一個算法,我們所做的就是我們理解一下具體的場景,我們理解它的結(jié)果,然后你要理解我們的一個對象的本質(zhì)。如果你知道了之后,你就意識到這是正確的場景,然后你產(chǎn)生了一個行動。這個行動改變了他們的信任系統(tǒng),有利于你自己想要的,違反了對方想要的,最后你采取行動。你的勝利沒有保證,但是有這樣的機會可能你最后會得勝。
我們做了一些研究,機器人其實也有這樣的傳感,如果沒有傳感,我們無法欺騙。我們其實會有更多的機會,比如說互相的傳感器之間有不同的吻合度,有的時候,他們互相不一致的話也會帶來一些問題,還有關(guān)于你的合作伙伴有更多信息的獲得,如果你的合作伙伴模型更好,那么成功機率更高,你的欺騙機率更高。
這是捉迷藏的實驗,我們使用小的機器人,我給大家看一個非常短的片子,這并不是非常漂亮的片子,但是會告訴我們怎么做。機器人有點像星球大戰(zhàn)第四季或者星球大戰(zhàn)第一季。他們藏起來了,要避免其他軍團的襲擊。機器人來了,他要做出決定了,他如何留下假的足跡,然后藏起來,藏在中間,這是就像一個風(fēng)暴軍團一樣,足跡在什么地方,這個機器人來了,來查找這個足跡了。有的時候會查找一下,他朝這個方向走了,另外一個機器人過來了,然后他可以逃脫假的足跡,有兩個對象已經(jīng)踩到了,這是不可預(yù)見的。那么你可以看到我們是哪撞了,哪個逃避了。
五、該擔(dān)心機器人會欺騙嗎?
我們在國際機器人雜志上發(fā)表了這樣的論文,關(guān)于這個實驗的設(shè)置也是非常有意思。這是2010年,這個結(jié)果其實并不代表機器人欺詐的最后判斷。這其實是一個初期的指針,相應(yīng)的技術(shù)和算法能夠使用,幫助我們解決機器人的欺詐。另外我們需要更多心理學(xué)上的研究或者更多的證據(jù)才能驗證這個假設(shè),這個結(jié)果并不是所有人都同意。
后來有一個相關(guān)的媒體報道,真是非常大肆宣揚的報道:他們教會機器人如何欺詐,機器人開始起義了,然后是機器人的世界末日來了。他們最后把這個點子藏起來,不要告訴我們,好像世界末日了。另外一篇論文說,一些人告訴機器人如何欺詐,會讓我們蒙受羞辱。他們描述了這個實驗,告訴機器人如何捉迷藏,他們也不高興,記者也不高興。下面的記者說,機器人是能夠欺詐的,有一些瘋子研究者,其實就是有點瘋狂,人們也擔(dān)心,你們是不是擔(dān)心呢?
我們這樣實驗,我們告訴機器人怎么欺詐,你們是不是擔(dān)心?是,也許不是。并不是所有人都認為這是一個好的點子。
《時代》雜志給我們一個年度最佳50個創(chuàng)造發(fā)明,從我的角度來說,這僅僅是一個實驗,不是發(fā)明,但是我們得了年度第50佳發(fā)明。還有新的《科學(xué)》雜志,他們探索了機器人的思維,然后告訴人類自己的思維。所有的這些理論能夠補充人的欺詐思維的研究。
最后機器人能夠補充人對大腦的理解。有說這個可能會把人類毀滅等等各種各樣的報道,但其中還是會有真理的。我們繼續(xù)研究像這樣的欺詐,哪怕有人說會怕人類毀滅。
六、欺騙的實用性
有的時候為了自己,典型一個例子,我經(jīng)常使用的就是我妻子問我她今天晚上看上去怎么樣,我說看上去很好,有的時候我知道她長得怎么樣,我還是要善意地欺騙一下。還有一個,我們結(jié)束之后大家說你講得很好。其實有的時候這樣的講話很糟糕的,特別是亞洲有很多這樣的,說你講得很好就是恭維你。我們怎么使用其他的欺騙,在機器人系統(tǒng)當(dāng)中推動他們社交的活動,我們所說的這里用的就是犯罪學(xué)的法則。
所以我們希望能夠把它擴大成三個元素,所謂的動機、方法、機遇。機遇已經(jīng)講過了,包括怎么樣做,什么時候做,我們現(xiàn)在必須要有為什么做,為什么做這樣做,特別情況下動機是什么,還有做這樣目的的方式。比方說欺騙。你可以通過說委托或者說投入來去欺騙某人,所以它的方式也不同,當(dāng)然最典型的例子就是我們可以用一些內(nèi)部的表情,或者一些距離的轉(zhuǎn)換層進行這樣的做法。
我之前就機器人的一些動態(tài)和索尼有一些合作,跟三星合作,在十年、十五年之前有專利,當(dāng)然會有不同的事項,我們有不同的方法顯示了出去,基本上顯示了一些錯誤的信號,在人的主題當(dāng)中我們研究了它的起作用方式。我們的目的是希望推動我們學(xué)習(xí)、推動機器的表現(xiàn)。有的時候有人會說,那確實,你做得很糟糕,或者恭維你兩句,在教育當(dāng)中經(jīng)常出現(xiàn)這樣的情況,可能大家都是天才。但是我們是要不斷地能夠在這里面取得成就。
七、機器人的道德倫理
最后一點就是機器人的道德,對于機器人的道德倫理我自己做了很長時間的研究,超過十年了,所以我們從這樣一個所謂的大規(guī)模殺傷性,特別是大規(guī)模殺傷性武器的機器人使用角度,我們允許機器人撒謊嗎?
我們有一個理論,這是一個框架理論,我們看到理論就是永遠不應(yīng)該撒謊。如果從功利角度,如果能夠最大化我們的幸福度,我們有的時候也能夠接受機器人撒謊了。所以我們要界定什么是正確,什么是不正確的?
我們可能對于這個欺詐來講,機器人根據(jù)不同的理論框架有不同的判斷。但是,我們的問題最終還是我們是否允許機器人撒謊。我們是否可以允許,我們可以做到這一點,我們也可以想象現(xiàn)場的一個專家來講,和過去相比,對于未來來講是否因為欺騙形成,導(dǎo)致人類末日的到來?;蛘吣軌蜃寵C器人成為社會的一份子,成為我們社會當(dāng)中一個社交好伙伴。實際上每一個環(huán)節(jié)都需要非常坦誠對白的,有的時候并不是很好的社交方面的朋友或者伙伴。所以很多的時候,我們也是需要能夠界定你所需要的對機器的坦誠度高低。