
隨著人工智能技術(shù)的飛速發(fā)展,全自動(dòng)化武器(殺人機(jī)器人)也將很快從科幻作品中走進(jìn)現(xiàn)實(shí)。

世界多國專家于今年初齊聚日內(nèi)瓦,專門研討“致命性全自動(dòng)化武器系統(tǒng)”問題。圖為聯(lián)合國駐日內(nèi)瓦辦事處總干事穆勒?! ∈澜缍鄧鴮<矣诮衲瓿觚R聚日內(nèi)瓦,專門研討“致命性全自動(dòng)化武器系統(tǒng)”問題。圖為聯(lián)合國駐日內(nèi)瓦辦事處總干事穆勒。

也有一些人辯稱,在戰(zhàn)場(chǎng)上使用機(jī)器人是利用它們來挽救生命。也有一些人辯稱,在戰(zhàn)場(chǎng)上使用機(jī)器人是利用它們來挽救生命。
北京時(shí)間7月12日消息,據(jù)國外媒體報(bào)道,今年初,世界多國專家齊聚日內(nèi)瓦研討“致命性全自動(dòng)化武器系統(tǒng)”問題,并一致認(rèn)為應(yīng)盡早嚴(yán)控此類機(jī)器人的發(fā)展與利用。會(huì)后,聯(lián)合國發(fā)表最新報(bào)告警告稱,恐怖分子有可能希望建立一支機(jī)器人部隊(duì),機(jī)器人武器一旦落入恐怖分子之手,后果將不堪設(shè)想。
隨著科技的進(jìn)步,尤其是機(jī)器人技術(shù)的飛速發(fā)展,被預(yù)先設(shè)置特定程序的機(jī)器人將擁有瞄準(zhǔn)目標(biāo)射擊的能力,在完全無人控制的情況下坦克也將具備主動(dòng)尋找目標(biāo)并自動(dòng)射擊的能力。所有這些并不是憑空想像的科幻,而是一種現(xiàn)實(shí),而且機(jī)器人的這種能力可能即將于數(shù)年內(nèi)走進(jìn)現(xiàn)實(shí)。
因此,世界多國專家于今年初齊聚日內(nèi)瓦,專門研討“致命性全自動(dòng)化武器系統(tǒng)”問題。專家們一致認(rèn)為,有多種自動(dòng)化武器將擁有自動(dòng)實(shí)施攻擊的能力。這次會(huì)議持續(xù)一周時(shí)間,會(huì)后聯(lián)合國發(fā)表最新報(bào)告警告稱,此類殺人機(jī)器人有落入恐怖分子之手的危險(xiǎn)性,而且恐怖分子肯定難以抵擋住這種新型武器的誘惑。
聯(lián)合國報(bào)告認(rèn)為,“雖然在最初階段,這些全自動(dòng)化武器系統(tǒng)可能只有科技發(fā)達(dá)國家才會(huì)擁有,但是也極有可能很快擴(kuò)散。此外,恐怖分子沒有任何遵守國際規(guī)范的動(dòng)機(jī),這也進(jìn)一步增加了全球或地區(qū)不穩(wěn)定性。現(xiàn)在有許多武器系統(tǒng)可以實(shí)施自動(dòng)攻擊。”在這種情況下,這些致命性武器系統(tǒng)可以成倍地提升武力和攻擊力。因此,對(duì)這些武器系統(tǒng)進(jìn)行人為干涉和嚴(yán)格控制是非常有必要的。
此前,也有一份相關(guān)報(bào)告呼吁,在科技飛速發(fā)展的今天,人類更應(yīng)該保持對(duì)所有武器系統(tǒng)的控制。報(bào)告認(rèn)為,在戰(zhàn)斗中武器系統(tǒng)的一些關(guān)鍵功能必須要靠人來控制,包括目標(biāo)的選擇,從而才可以盡最大可能挽救生命,并保證戰(zhàn)斗人員遵守國際法。“人權(quán)觀察組織”武器部高級(jí)研究專員鮑尼-多切蒂認(rèn)為,“長期以來,機(jī)器人一直充當(dāng)戰(zhàn)爭(zhēng)的工具,但都是人類在控制和使用它們?,F(xiàn)在,一個(gè)真正的威脅是,人類放松了這種控制,并將生殺大權(quán)賦予了機(jī)器人。”不過,也有一些人辯稱,在戰(zhàn)場(chǎng)上使用機(jī)器人是利用它們來挽救生命。
去年,來自全球各國1000多位科學(xué)家和機(jī)器人專家發(fā)表公開信,警告稱這種致命性全自動(dòng)化武器將于數(shù)年內(nèi)成為現(xiàn)實(shí),而不是幾十年后。這些科學(xué)家和專家包括世界著名物理學(xué)家史蒂芬-霍金、特斯拉公司CEO埃隆-馬斯克和蘋果聯(lián)合創(chuàng)始人斯蒂芬-沃茲尼克等。在公開信中,他們聲稱 ,如果任何軍事大國或組織致力于研發(fā)全自動(dòng)化武器,那么全球性武器軍備競(jìng)賽將不可避免。如果任由這種趨勢(shì)的發(fā)展,全自動(dòng)化武器將可能成為明天的AK-47。
一直以來,霍金教授都堅(jiān)持自己的反對(duì)態(tài)度。“我認(rèn)為人工智能的進(jìn)步并不一定是有利的。機(jī)器人一旦到了能夠自我進(jìn)化的階段,我們將無法預(yù)測(cè)它們的目標(biāo)中是否包括我們自己。人工智能的進(jìn)化速度有可能會(huì)超越人類。”據(jù)總部位于英國倫敦的“禁止殺人機(jī)器人運(yùn)動(dòng)”組織介紹,美國、中國、以色列、韓國、俄羅斯和英國等國家仍在致力于此類系統(tǒng)的研發(fā),希望能夠進(jìn)一步提高武器的自動(dòng)化作戰(zhàn)能力。
不過,谷歌董事長埃里克-施密特在本周表達(dá)了自己的觀點(diǎn)。他認(rèn)為,所有人都“不應(yīng)該對(duì)人工智能有恐慌心理”。施密特表示,“科學(xué)史表明,任何技術(shù)在最終改善人類生活之前,最初常常會(huì)受到質(zhì)疑,并成為恐懼的對(duì)象。”雖然“世界末日”的假想也是值得考慮的情形,但是人工智能的發(fā)展的最理想方向是幫助人類解決問題。“谷歌和其它許多公司也一起在致力于人工智能安全性的研究,這樣才能保證人類在必要時(shí)可以暫停人工智能系統(tǒng)。”