艾薩克·阿西莫夫(Isaac Asimov)曾在他的科幻小說里描述了規(guī)范機器人行為的三定律,包括:不能傷害人類、服從人類命令和保護自己。

現(xiàn)在,英國標準協(xié)會正式發(fā)布了一套機器人倫理指南,比阿西莫夫三定律更加復(fù)雜和成熟。我們的社會已經(jīng)到了要給機器人制定行為規(guī)范的時候了,這不禁讓人產(chǎn)生一種科幻與現(xiàn)實交織的奇妙感覺。
英國標準協(xié)會(British Standards Institute,簡稱BSI),是有著 100 多年歷史的英國國家標準機構(gòu),在世界范圍內(nèi)具有很高的權(quán)威性。這個倫理指南的全稱是《機器人和機器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》(以下簡稱《指南》),主要針對的人群就是機器人設(shè)計研究者和制造商,指導(dǎo)他們?nèi)绾螌σ粋€機器人做出道德風(fēng)險評估。最終的目的,是保證人類生產(chǎn)出來的智能機器人,能夠融入人類社會現(xiàn)有的道德規(guī)范里。
這個標準的文件代號為 BS8611,發(fā)布于9月15日英國牛津郡的 “社會機器人和AI ”(Social Robotics and AI)大會上。西英格蘭大學(xué)機器人教授Alan Winfield表示,這是業(yè)界第一個關(guān)于機器人倫理設(shè)計的公開標準。
文件內(nèi)容雖然用詞枯燥,但是里面所描繪的場景,簡直跟從科幻小說里蹦出來的一樣。機器人欺騙、令人成癮、具有超越現(xiàn)有能力范圍的自學(xué)能力,這些都被列為危害因素,是設(shè)計人員和制造商需要考慮的。
《指南》開頭給出了一個廣泛的原則:機器人的設(shè)計目的不應(yīng)是專門或主要用來殺死或傷害人類;人類是負責(zé)任的主體,而不是機器人;要確保找出某個機器人的行為負責(zé)人的可能性。
《指南》也聚焦了一些有爭議性的話題,例如,人類與機器人產(chǎn)生情感聯(lián)系是可以的嗎,尤其是當(dāng)這個機器人本身設(shè)計目的就是為了與小孩和老人互動。

謝菲爾德大學(xué)教授Noel Sharkey認為,這就是機器人在無意的情況下欺騙人類的例子。機器人是沒有感情的,但是人類有時候并不這么認為。他指出,最近有一項研究,把小機器人放到一所幼兒園里,孩子們很是喜愛,并且認為這些機器人比家里的寵物具有更高的感知能力。
《指南》建議設(shè)計者更應(yīng)關(guān)注機器人的透明性,但是科學(xué)家們表示這個在現(xiàn)實里很難應(yīng)用。這是因為人們無法確切了解AI系統(tǒng)(尤其是深度學(xué)習(xí)系統(tǒng))是如何做出決定的。
一個人工智能體,并沒有用固定的程序來指導(dǎo)它完成任務(wù),它是通過數(shù)百萬次的學(xué)習(xí)和嘗試,才找出成功的解決方法。這種學(xué)習(xí)和做出決策的過程,有時候是其人類設(shè)計者都無法理解的。
《指南》里也提到了機器人的性別和種族歧視問題。這是因為深度學(xué)習(xí)系統(tǒng)很多都是使用互聯(lián)網(wǎng)上的數(shù)據(jù)進行訓(xùn)練,而這些數(shù)據(jù)本身就帶著偏見。
機器人的偏見是會直接影響技術(shù)應(yīng)用的。它會對某些群體的學(xué)習(xí)更深入,而對另一些群體有所忽視,這在以后的應(yīng)用中,意味著機器人會“看菜下飯,看人說話”。
現(xiàn)在已有的例子就是,聲音識別系統(tǒng)對于女性的理解要弱一些,再比如機器識別白種人的臉更容易,識別黑人的臉更難。 長遠來看,在未來的醫(yī)療應(yīng)用中,機器人在診斷女性和少數(shù)族群的時候,其專業(yè)程度會降低。
Sharkey 教授說:“我們也需要一個機器人黑盒子,可以打開來仔細審查。如果一個機器人表現(xiàn)出種族主義的傾向,我們可以把它關(guān)掉,從街上拽回來。”
兩周前,路透社有文章指出,有科學(xué)家表示性愛機器人會使人成癮,因為機器人不會拒絕。
《指南》也提到了這種“過度依賴機器人"的現(xiàn)象,然而并沒有給設(shè)計者一個確切的可遵循的準則。這也是在未來的工作中需要繼續(xù)補充的。