
關(guān)于人們對人工智能的威力和危險有很多猜測,但主要集中在人工智能在不久的將來會對我們的工作造成什么影響。現(xiàn)在,科技領(lǐng)袖、政府和記者們正在討論人工智能如何制造致命的自主武器系統(tǒng),如果這項技術(shù)落入流氓國家或恐怖組織手中,將會發(fā)生什么。關(guān)于自主武器的道德和法律問題的辯論已經(jīng)開始,這并不是簡單的答案。
自主武器已經(jīng)發(fā)展起來
聯(lián)合國最近討論了自主武器的使用以及國際上禁止“殺手機器人”的可能性。這場辯論是在包括特斯拉的埃隆·馬斯克和Alphabet的穆斯塔法·蘇利曼在內(nèi)的100多名人工智能團體的領(lǐng)導(dǎo)下進行的,他們警告說,這些武器可能會導(dǎo)致“第三次戰(zhàn)爭大戰(zhàn)”。
雖然人工智能已經(jīng)在許多經(jīng)濟上的問題得到改進和增加效率(如從娛樂到運輸在到醫(yī)療保?。谖淦鳈C器人能夠在不受人類干預(yù)的情況下自動運作的時候,許多問題都將被提出來了。
目前已經(jīng)有一些不同程度的人員參與的武器系統(tǒng)測試中了。
在英國,Taranis無人機預(yù)計將在2030年全面投入使用,并能夠取代人類駕駛的龍卷風(fēng)GR4戰(zhàn)斗機,這是皇家空軍未來進攻空中系統(tǒng)的一部分。
包括美國和俄羅斯在內(nèi)的其他國家正在開發(fā)可以自主操作或遙控的機器人坦克。美國也有一艘自2016年發(fā)射的自主戰(zhàn)艦。盡管它仍在研發(fā)中,但預(yù)計擁有包括反潛武器在內(nèi)的進攻能力。據(jù)報道韓國使用的是一種三星SGR-A1哨槍,據(jù)稱可以自動開火來控制其邊境。
雖然這些武器的開發(fā)是為了盡量減少軍事沖突對人類生命的威脅,想象一下恐怖組織如果利用這些武器進行大規(guī)模殺傷,將會是一個什么樣的場景。
人工智能和殺手機器人的警告
法國國防巨頭Thales公司的研究副總裁阿爾文·威爾比(Alvin Wilby)告訴英國國會議員人工情報委員會說,流氓國家和恐怖分子“將在不久的將來掌握致命的人工智能”。謝菲爾德大學(xué)(University of Sheffield)人工智能和機器人研究的名譽教授諾埃爾?夏基(Noel Sharkey)也持同樣的觀點。他擔(dān)心這種武器的“非常糟糕的副本”會落入恐怖組織手中。
并不是所有人都認為人工智能弊大于利的,事實上,它對人類的潛在益處是巨大的。
人工智能可以幫助打擊恐怖主義
在人工智能領(lǐng)域的另一邊,F(xiàn)acebook宣布,它正在利用人工智能從其平臺上查找和刪除恐怖分子的內(nèi)容。在后臺Facebook使用圖像匹配技術(shù)來識別和防止已知恐怖分子從其他賬戶彈出的照片和視頻。該公司還表示,它可以利用機器學(xué)習(xí)算法在恐怖主義宣傳中尋找模式,這樣就能更快地將其從其他人的新聞推送中刪除。這些反恐措施將延伸到Facebook旗下的其他平臺,包括WhatsApp和Instagram。Facebook與包括Twitter、微軟和YouTube在內(nèi)的其他科技公司合作,創(chuàng)建了一個行業(yè)數(shù)據(jù)庫,用來記錄恐怖組織的數(shù)字指紋。
人類被迫放棄了生死抉擇
那些希望禁止殺傷性自動武器的團體,如阻止殺人機器人的運動,這是一種壓倒性的擔(dān)憂,即如果機器完全自主,人類就不會在戰(zhàn)爭任務(wù)中扮演決定性的角色。這就造成了一個道德困境。而且,如果一些邪惡的政權(quán)使用致命的自治系統(tǒng)來對付他們自己的人民呢?
就像威爾比先生說的,“妖怪已經(jīng)從封印中出來了”。和其他創(chuàng)新一樣,現(xiàn)在人工智能技術(shù)已經(jīng)開始影響我們的世界,我們需要盡最大努力去控制它。如果恐怖組織想用人工智能來作惡,也許我們最好的防御就是人工智能的攻擊。