人工智能有可能危害人類安全已經(jīng)成為了很多科學(xué)家的“共識(shí)”,在這種情況下,如何開發(fā)安全的人工智能就成為了不少研究人員的課題,近日《科學(xué)美國人》網(wǎng)站有文章表示,學(xué)會(huì)拒絕人類指令的人工智能機(jī)器人更安全,因?yàn)槿祟惪倳?huì)發(fā)出不當(dāng)或惡意指令,如果不能分辨出那些式不當(dāng)或惡意的指令,或者不能正確理解人類的指令,那么人工智能將對(duì)人類帶來極大的威脅。

發(fā)表文章的研究人員表示,他們非常關(guān)注人工智能對(duì)日常生活的影響,他們認(rèn)為在不久的將來,有實(shí)用價(jià)值、具備合作能力的機(jī)器人會(huì)在多種場合與人類互動(dòng)。目前已經(jīng)有基于語音命令的個(gè)性化機(jī)器助手出現(xiàn),它們可以監(jiān)控并調(diào)用個(gè)人電子設(shè)備,管理家中具有物聯(lián)網(wǎng)功能的設(shè)備,甚至可以為小孩講睡前故事。在不久的將來,能夠協(xié)助做家務(wù),照顧失能人士的機(jī)器人將出現(xiàn);能夠完成簡單生產(chǎn)線工作的機(jī)器人也在開發(fā)中;而具有自動(dòng)駕駛功能的汽車已經(jīng)在美國的道路上行駛了數(shù)百萬公里。
目前看來人工智能對(duì)整個(gè)人類造成生存問題實(shí)在過于遙遠(yuǎn),相比較而言,如何防止具有人工智能的機(jī)器“無意間”對(duì)人類、財(cái)物、環(huán)境或自身造成傷害。

大多數(shù)和工具有關(guān)的損失并不是由工具的責(zé)任,而是不當(dāng)使用工具造成的,也就是說是人的錯(cuò)誤。如果將人工智能當(dāng)作一個(gè)高級(jí)的工具看,那么犯錯(cuò)的風(fēng)險(xiǎn)也主要集中在人類身上,人工智能大多數(shù)時(shí)候不過是在執(zhí)行人類錯(cuò)誤的指令。如此看來,教會(huì)人工智能正確判斷情況,合理拒絕人類才是正確的做法。
在未來,隨著人工智能的不斷進(jìn)步,它們與人類交互的機(jī)會(huì)將越來越多,但通過語音獲得指令對(duì)于他們來說仍是一種挑戰(zhàn)。人類日常生活中使用的語言大多是非常模糊的,即使經(jīng)過嚴(yán)格的語言和邏輯訓(xùn)練的人所說出的話也充滿了歧義和矛盾。但是人類自己可以結(jié)合語境、環(huán)境和經(jīng)驗(yàn)等因素理解對(duì)方的語言,并在適當(dāng)?shù)臅r(shí)候提出質(zhì)疑。
如果機(jī)器人不具有類似的能力,那么毫無疑問它們會(huì)變得非常危險(xiǎn),甚至像一個(gè)利用你語言漏洞故意找茬的“問題員工”。但是單純?cè)黾訖C(jī)器人推理能力也并不能解決問題,在能分辨什么時(shí)候該拒絕人類之后,如何與人類交互,以巧妙的方式拒絕人類的錯(cuò)誤指令,并引導(dǎo)人類給出正確指令就成為人工智能的另一項(xiàng)挑戰(zhàn)。
機(jī)器人的行為比人類更容易預(yù)測,這雖然方便了人類使用機(jī)器人,但也帶來了風(fēng)險(xiǎn),因?yàn)樾袨楦叨瓤深A(yù)測的機(jī)器人非常被人類誤導(dǎo),做一些損害別人利益的行為。在這種情況下,人工智能的判斷力就非常有價(jià)值了。
隨著人工智能能力的提高,機(jī)器人人格化會(huì)越來越明顯,這種人格魅力會(huì)引發(fā)人類對(duì)其付出過多的感情,而這種感情是一種單方面的感情,這不但有可能沒有回報(bào),還會(huì)給控制機(jī)器人的機(jī)構(gòu)可以用前所未有的方式控制人類。
使用工具是人類與世界交互的重要工具,而人工智能是人類歷史上最強(qiáng)有力的工具。這種工具在為人類帶來便利以外也帶來了風(fēng)險(xiǎn),人類必須以更加負(fù)責(zé)的態(tài)度去使用機(jī)器人。在設(shè)計(jì)上應(yīng)該把安全性放在更重要的位置,讓機(jī)器人學(xué)會(huì)為了安全拒絕人類的錯(cuò)誤指令。