人工智能有可能危害人類安全已經(jīng)成為了很多科學家的“共識”,在這種情況下,如何開發(fā)安全的人工智能就成為了不少研究人員的課題,近日《科學美國人》網(wǎng)站有文章表示,學會拒絕人類指令的人工智能機器人更安全,因為人類總會發(fā)出不當或惡意指令,如果不能分辨出那些式不當或惡意的指令,或者不能正確理解人類的指令,那么人工智能將對人類帶來極大的威脅。

發(fā)表文章的研究人員表示,他們非常關(guān)注人工智能對日常生活的影響,他們認為在不久的將來,有實用價值、具備合作能力的機器人會在多種場合與人類互動。目前已經(jīng)有基于語音命令的個性化機器助手出現(xiàn),它們可以監(jiān)控并調(diào)用個人電子設(shè)備,管理家中具有物聯(lián)網(wǎng)功能的設(shè)備,甚至可以為小孩講睡前故事。在不久的將來,能夠協(xié)助做家務(wù),照顧失能人士的機器人將出現(xiàn);能夠完成簡單生產(chǎn)線工作的機器人也在開發(fā)中;而具有自動駕駛功能的汽車已經(jīng)在美國的道路上行駛了數(shù)百萬公里。
目前看來人工智能對整個人類造成生存問題實在過于遙遠,相比較而言,如何防止具有人工智能的機器“無意間”對人類、財物、環(huán)境或自身造成傷害。

大多數(shù)和工具有關(guān)的損失并不是由工具的責任,而是不當使用工具造成的,也就是說是人的錯誤。如果將人工智能當作一個高級的工具看,那么犯錯的風險也主要集中在人類身上,人工智能大多數(shù)時候不過是在執(zhí)行人類錯誤的指令。如此看來,教會人工智能正確判斷情況,合理拒絕人類才是正確的做法。
在未來,隨著人工智能的不斷進步,它們與人類交互的機會將越來越多,但通過語音獲得指令對于他們來說仍是一種挑戰(zhàn)。人類日常生活中使用的語言大多是非常模糊的,即使經(jīng)過嚴格的語言和邏輯訓練的人所說出的話也充滿了歧義和矛盾。但是人類自己可以結(jié)合語境、環(huán)境和經(jīng)驗等因素理解對方的語言,并在適當?shù)臅r候提出質(zhì)疑。
如果機器人不具有類似的能力,那么毫無疑問它們會變得非常危險,甚至像一個利用你語言漏洞故意找茬的“問題員工”。但是單純增加機器人推理能力也并不能解決問題,在能分辨什么時候該拒絕人類之后,如何與人類交互,以巧妙的方式拒絕人類的錯誤指令,并引導人類給出正確指令就成為人工智能的另一項挑戰(zhàn)。
機器人的行為比人類更容易預測,這雖然方便了人類使用機器人,但也帶來了風險,因為行為高度可預測的機器人非常被人類誤導,做一些損害別人利益的行為。在這種情況下,人工智能的判斷力就非常有價值了。
隨著人工智能能力的提高,機器人人格化會越來越明顯,這種人格魅力會引發(fā)人類對其付出過多的感情,而這種感情是一種單方面的感情,這不但有可能沒有回報,還會給控制機器人的機構(gòu)可以用前所未有的方式控制人類。
使用工具是人類與世界交互的重要工具,而人工智能是人類歷史上最強有力的工具。這種工具在為人類帶來便利以外也帶來了風險,人類必須以更加負責的態(tài)度去使用機器人。在設(shè)計上應(yīng)該把安全性放在更重要的位置,讓機器人學會為了安全拒絕人類的錯誤指令。