全自動(dòng)武器系統(tǒng),可以在不受人類操縱的情況下對(duì)目標(biāo)自行判斷并發(fā)動(dòng)攻擊,也被稱為“殺人機(jī)器人”;美國(guó)國(guó)家情報(bào)委員會(huì)預(yù)測(cè)2030年將出現(xiàn)仿生機(jī)械超人;機(jī)器人反人類控制是科幻電影偏愛的故事;很多人擔(dān)憂機(jī)器人真的成為人類的終結(jié)者。機(jī)器人是否就是人類的末日?
也許科幻電影太多地描繪了機(jī)器人反人類統(tǒng)治而控制了地球的未來(lái),因此引發(fā)一些人的不安,擔(dān)心幻境成真。國(guó)際人權(quán)組織“人權(quán)觀察”就是其中之一,2012年11月他們聯(lián)合美國(guó)哈佛大學(xué)發(fā)表了一份報(bào)告,呼吁國(guó)際間禁止研發(fā)全自動(dòng)武器系統(tǒng)。這種可以在不受人類操縱的情況下對(duì)目標(biāo)自行發(fā)動(dòng)攻擊的武器,也被稱作“殺人機(jī)器人”。
報(bào)告聲明:應(yīng)設(shè)立國(guó)際性法規(guī)禁止研發(fā)、生產(chǎn)及使用全自動(dòng)武器;并采取國(guó)家立法與政策制定來(lái)約束研發(fā)、生產(chǎn)及使用全自動(dòng)武器。
報(bào)告說(shuō),這樣的軍用機(jī)器人可能在20至30年內(nèi)問世;這樣的機(jī)器人將無(wú)法區(qū)分軍人和平民;包括美國(guó)在內(nèi)的許多國(guó)家都對(duì)以機(jī)器人代替士兵的設(shè)想感興趣。
美軍或?qū)⒀邪l(fā)“殺人機(jī)器人”
巧合的是,就在這份報(bào)告發(fā)布3日后,美國(guó)國(guó)防部發(fā)布了一份關(guān)于“全自動(dòng)武器系統(tǒng)”的指令,據(jù)英國(guó)《衛(wèi)報(bào)》12月3日?qǐng)?bào)道,指令指出,這種系統(tǒng)一旦激活,即可自行選擇和處理目標(biāo)而不需要任何人的操控。同時(shí)將建立相關(guān)政策,分配開發(fā)和使用自動(dòng)或半自動(dòng)武器系統(tǒng)的人的責(zé)任。
事實(shí)上,這已經(jīng)不是美軍第一次討論這種武器的可能性,早在2004年美國(guó)國(guó)防部就已經(jīng)給研發(fā)者亮了綠燈。總的來(lái)說(shuō),美國(guó)國(guó)防部希望的是最徹底的實(shí)驗(yàn),從研發(fā)到使用到操作者的培訓(xùn),并確保適用法律的配套,而且確保有人類電腦終端能結(jié)束錯(cuò)誤任務(wù)。當(dāng)然他們也反復(fù)強(qiáng)調(diào)了建立有關(guān)政策防止任何可能出現(xiàn)的錯(cuò)誤而導(dǎo)致系統(tǒng)的失控。
英國(guó)《衛(wèi)報(bào)》的特約作者諾爾·沙基在他的評(píng)論文章中稱,這種反復(fù)強(qiáng)調(diào)的錯(cuò)誤,包括以下幾個(gè)方面,人為錯(cuò)誤,人機(jī)交互失敗,系統(tǒng)失靈,通信未升級(jí),軟件編碼錯(cuò)誤,敵人網(wǎng)絡(luò)攻擊或滲透供應(yīng)鏈,干擾,電子欺騙,敵人的其他行為,或是戰(zhàn)場(chǎng)上的意外情況。
諾爾·沙基是英國(guó)的人工智能和機(jī)器人專家,對(duì)于這種“殺人機(jī)器人”出現(xiàn)的可能十分擔(dān)憂。并且他在文章中稱早在2007年他就已經(jīng)在《衛(wèi)報(bào)》發(fā)表文章警告國(guó)際社會(huì)這種機(jī)器人的危險(xiǎn)性,但至今也沒有看到國(guó)際上有關(guān)于限制殺人機(jī)器人研制的立法討論。
“人權(quán)觀察”的報(bào)告認(rèn)為雖然目前這種全自動(dòng)武器還沒有出現(xiàn),而且世界強(qiáng)國(guó)包括美國(guó)也沒有最后下決心發(fā)展這種武器。但是高科技的軍事正在發(fā)展或者已經(jīng)發(fā)展出了能夠推動(dòng)這種全自動(dòng)武器發(fā)展的基石,除了美國(guó),德國(guó)、以色列、韓國(guó)、俄羅斯、英國(guó)、中國(guó)都已經(jīng)具備了這種能力。
一些專家認(rèn)為,這種武器可能在20、30年內(nèi)就可完成,甚至是更快。而就在12月10日,美國(guó)國(guó)家情報(bào)委員會(huì)作出預(yù)測(cè):2030年將出現(xiàn)仿生機(jī)械超人。
人工智能會(huì)否成為殺人武器
全自動(dòng)武器系統(tǒng)若要有一定的自行判斷能力,就要以人工智能為基礎(chǔ)。但隨著人工智能的發(fā)展,出現(xiàn)殺人機(jī)器人的擔(dān)憂會(huì)越來(lái)越多,甚至人們也會(huì)擔(dān)心用于其他地方的服務(wù)型機(jī)器人也可能因?yàn)槟承╁e(cuò)誤的出現(xiàn)而導(dǎo)致安全問題。尤其是當(dāng)人工智能越來(lái)越接近人類的智力,甚至擁有了類人的情感。
在專業(yè)領(lǐng)域內(nèi),一些專家將機(jī)器人學(xué)和人工智能看做是兩個(gè)獨(dú)立的學(xué)科。美國(guó)計(jì)算機(jī)科學(xué)教材系列《人工智能》作者提姆·瓊斯(Tim Jones)認(rèn)為,機(jī)器人學(xué)和人工智能是兩個(gè)獨(dú)立的領(lǐng)域,但卻是相互補(bǔ)充的。機(jī)器人為人工智能提供了其他事物所不能提供的物理表現(xiàn)形式。
他對(duì)《中國(guó)科學(xué)報(bào)》記者說(shuō):“雖然可以通過機(jī)器人模擬,了解人工智能應(yīng)用在機(jī)器人上時(shí)可能產(chǎn)生的問題,但是模擬容易掩蓋一些需要解決的問題。因?yàn)?,模擬本身是人工控制環(huán)境的,而機(jī)器人本身和自然環(huán)境卻是復(fù)雜和凌亂的。”
因此,瓊斯在他編寫的教材中,將機(jī)器人學(xué)和人工智能分離為兩個(gè)學(xué)科。“機(jī)器人學(xué)能為人工智能研究帶來(lái)好處。雖然我們可以制造一個(gè)完全不結(jié)合人工智能的機(jī)器人,這種機(jī)器人系統(tǒng)只是按預(yù)定程序辦事,但它的重要性絕不能與建立一個(gè)擁有智能的機(jī)器人系統(tǒng)相比。”
當(dāng)人工智能越來(lái)越高級(jí),擁有人工情感、類人情感就成為一個(gè)必然的方向。瓊斯也告訴《中國(guó)科學(xué)報(bào)》記者,沒有情緒的機(jī)器就不能稱之為擁有真正的人工智能,但不是所有的情緒對(duì)機(jī)器都是有利的。如果一個(gè)機(jī)器能夠展現(xiàn)憤怒或嫉妒這樣的情緒那就隱藏著危險(xiǎn)。他說(shuō):“擁有情感能讓機(jī)器感知用戶的情感。能表達(dá)和能感知情緒都是有必要的,但是這也會(huì)導(dǎo)致新的問題。”
北京科技大學(xué)物聯(lián)網(wǎng)與電子工程系主任王志良告訴《中國(guó)科學(xué)報(bào)》記者,對(duì)于機(jī)器人或者是人工智能的研究一定要有一些制約,或者是準(zhǔn)則來(lái)約束研發(fā)類似殺人機(jī)器人是非常必要的。因?yàn)槿詣?dòng)武器是很容易做到的。
比如美國(guó)的無(wú)人機(jī),在長(zhǎng)時(shí)間飛行中,通過高精度的影像技術(shù),可以將敵人的行為完全掌握。而武器的高精度打擊,或者稱為定點(diǎn)手術(shù)都已經(jīng)是非常成熟的技術(shù)。
科幻電影中經(jīng)常出現(xiàn)機(jī)器人擁有的一定水平的智能后,開始不斷學(xué)習(xí)人類的思維方式,學(xué)習(xí)人類的知識(shí),甚至產(chǎn)生控制人類的“野心”,或是對(duì)既有法則的過度分析后以保護(hù)人類的名義而反人類。
王志良說(shuō):“當(dāng)機(jī)器擁有了一定的學(xué)習(xí)能力,我們必須在人文或是法律上有這樣的制約,不能夠?qū)?quán)力全部交給機(jī)器人,這絕對(duì)是有風(fēng)險(xiǎn)的。尤其是在機(jī)器人漸漸普遍進(jìn)入家庭,如何保證安全非常重要。”
人類智慧難超越 機(jī)器“逆天”無(wú)可能
早在1940年,科幻作家阿西莫夫就提出了著名的“機(jī)器人三原則”:1.機(jī)器人不應(yīng)傷害人類;2.機(jī)器人應(yīng)遵守人類的命令,與第一條違背的命令除外;3.機(jī)器人應(yīng)能保護(hù)自己,與第一條相抵觸者除外。
這是給機(jī)器人賦予的倫理性綱領(lǐng)。學(xué)術(shù)界一直將這三原則作為機(jī)器人開發(fā)的準(zhǔn)則。而王志良認(rèn)為這個(gè)三原則已經(jīng)越來(lái)越適用于機(jī)器人和人工智能的研究。
很多科幻電影中,還是會(huì)在最后揭示出,機(jī)器畢竟是機(jī)器,它們獲得的“思維”還是基于人類的程序設(shè)計(jì)。人最終會(huì)通過自身更高級(jí)智慧重新掌控機(jī)器。
在業(yè)內(nèi),人類智能和機(jī)器智能通過兩個(gè)詞語(yǔ)區(qū)分,即“濕智能”與“干智能”。人類以及動(dòng)物的大腦都是生物基礎(chǔ),有血液等等,因此被稱為濕智能,而機(jī)器人的大腦都是由集成電路等固態(tài)的東西組成。王志良說(shuō):“物質(zhì)構(gòu)成的不同,決定了它們能夠產(chǎn)生和表現(xiàn)出來(lái)的性能肯定是不一樣的。”
從海洋到大陸,從水生生物到陸地霸主,人類的大腦是經(jīng)過幾億年的變遷與進(jìn)化,才擁有了今天這樣的智慧,而機(jī)器人的研究只不過幾十年。
英特爾(Intel)創(chuàng)始人之一戈登·摩爾提出的摩爾定律指出當(dāng)價(jià)格不變時(shí),集成電路上可容納的晶體管數(shù)目,約每隔18個(gè)月便會(huì)增加一倍,性能也將提升一倍。
雖然現(xiàn)在硅電路(集成電路)的運(yùn)算速度越來(lái)越快,存儲(chǔ)量越來(lái)越大,但王志良告訴《中國(guó)科學(xué)報(bào)》記者,集成電路的這種發(fā)展已經(jīng)經(jīng)過了幾十年,可能在十年后就會(huì)達(dá)到極限。即使做到極限,與人的大腦也是無(wú)法比擬的。“因此,機(jī)器人擁有能夠戰(zhàn)勝人類的智慧這種事是無(wú)須擔(dān)憂的。”
提姆·瓊斯也說(shuō):“我不認(rèn)為機(jī)器人有任何可能成為人類的威脅,尤其目前在研究中還有很多未能解決的問題。實(shí)際上那個(gè)人類本身就是一部令人驚嘆的機(jī)器。面對(duì)很多不能解決的問題,人類自身的歸納能力以及解決新問題的能力都超越了任何的機(jī)器。”
瓊斯表示,作為人類,我們今天能夠從人工智能獲得很多利益,更有助于人類自身的擴(kuò)張。在人工智能研究的早期階段,其目標(biāo)就是發(fā)展能思考的機(jī)器,在某些領(lǐng)域還渴望讓機(jī)器人能擁有這樣的智能。
但實(shí)際上,現(xiàn)階段的人工智能研究已經(jīng)趨于更實(shí)際的目標(biāo),都是有利于目前技術(shù)的發(fā)展和改善我們的生活。知識(shí)的分類和開發(fā)傳播已經(jīng)是在線即時(shí)的,這讓我們能夠不斷地?cái)U(kuò)大學(xué)習(xí)范圍。這讓人類變得更加聰明,當(dāng)然也有少數(shù)人認(rèn)為網(wǎng)絡(luò)降低了我們的智商而且從根本上改變了我們的思維方式。雖然這是在建立虛擬和實(shí)體智能時(shí)一定會(huì)伴隨的危險(xiǎn),但也是我們必須做的。
機(jī)器人三原則:
機(jī)器人不應(yīng)傷害人類;
機(jī)器人應(yīng)遵守人類的命令,與第一條違背的命令除外;
機(jī)器人應(yīng)能保護(hù)自己,與第一條相抵觸者除外。