著名科幻小說艾薩克·阿西莫夫(Isaac Asimov)在他的小說中描述了未來人類對機器人行為的三定律:不能傷害人類、服從人類命令和保護自己。如今阿西莫夫描繪的未來正一步步向我們走來,英國標準協(xié)會(British Standards Institute,簡稱 BSI)正式發(fā)布了一套機器人倫理指南,這套指南比阿西莫夫三定律更加復雜和成熟。
英國標準協(xié)會是一個有著100多年歷史的英國國家標準機構,在世界范圍內都具有很高的權威性。近日發(fā)布的倫理指南的全稱為《機器人和機器系統(tǒng)的倫理設計和應用指南》,主要為機器人設計研究者和制造商提供指導,讓他們能正確判斷生產(chǎn)某個機器人的道德風險。該協(xié)會表示發(fā)布這個指南最終的目的是保證人類生產(chǎn)出來的智能機器人能夠融入人類社會現(xiàn)有的道德規(guī)范里。
這個指南的文件代號為 BS8611,發(fā)布于 9 月 15 日英國牛津郡的 “社會機器人和 AI ”(Social Robotics and AI)大會上。有專家表示表示,這是業(yè)界第一個關于機器人倫理設計的公開標準。

該指南內容雖然用十分專業(yè)的詞匯表述其內容,但所描繪的場景和科幻小說并不二致。在這里機器人有可能欺騙、令人成癮、具有超越現(xiàn)有能力范圍的自學能力,這些都被列為危害因素,是設計人員和制造商需要考慮避免的。指南給出了一個廣泛的原則,即機器人設計的目的不應是專門或主要用來殺死或傷害人類的;人類是責任的主體;在設計時要確保能找出某個機器人的行為負責人。
指南還聚焦了一些有爭議的話題,例如當機器人設計時就為了與兒童和老人互動時,人類是否應該與機器人產(chǎn)生感情聯(lián)系。有專家表示,這種場景就是典型的機器人在無意的情況下欺騙人類的例子。機器人是沒有感情的,但很多人并不這么認為。有研究印證這種擔憂:最近有一項研究,把小機器人放到一所幼兒園里,孩子們很是喜愛,并且認為這些機器人比家里的寵物具有更高的感知能力。
同時也有科學家表示,指南中的有些建議難以執(zhí)行,例如指南建議設計者應關注機器人的透明性,但在實際操作中很難應用,尤其是目前快速發(fā)展的深度學習系統(tǒng),其具體的運行方式并不被人類所了解。這類的人工智能體系并沒有固定的程序來指導它完成任務,它是通過數(shù)以百萬次的嘗試和學習,才自己找出解決方法的,通過這種方法得出的決策過程,很多時候是人類設計者無法理解的。
指南中還提到了機器人的偏見和歧視的問題,由于深度學習系統(tǒng)很多時候是在使用互聯(lián)網(wǎng)上的數(shù)據(jù)進行學習,而這些數(shù)據(jù)本身就帶有偏見,這就導致深度學習的結果也帶有偏見。
對于機器人成癮指南并沒有給出明確可循的準則,類似這樣的問題需要在未來的工作中補充完善