美國(guó)著名小說(shuō)家艾薩克·阿西莫夫(Isaac Asimov)曾為我們指出過(guò)機(jī)器人的基本行為規(guī)則:不傷害人類(lèi)、服從命令和保護(hù)機(jī)器人自己。最近,英國(guó)標(biāo)準(zhǔn)研究院(BSI)發(fā)布了一份更為官方的機(jī)器人倫理準(zhǔn)則文件,旨在幫助設(shè)計(jì)者創(chuàng)造合乎倫理的機(jī)器人。

BSI發(fā)布的這份文件叫作“BS8611機(jī)器人和機(jī)器人設(shè)備”,這是一份用干巴巴的語(yǔ)言編寫(xiě)的健康和安全手冊(cè),但里面所強(qiáng)調(diào)的不良場(chǎng)景可能直接取自科幻小說(shuō)。機(jī)器人欺騙、過(guò)度依賴(lài)機(jī)器人和自主學(xué)習(xí)系統(tǒng)可能會(huì)超出他們的權(quán)限,這些都是制造商應(yīng)該考慮到的危害。
這份文件是在牛津Social Robotics and AI大會(huì)上提出的,是英格蘭大學(xué)的機(jī)器人技術(shù)教授Alan Winfield指出,這些準(zhǔn)則代表了將倫理價(jià)值嵌入機(jī)器人和人工智能的第一步。這是第一個(gè)公開(kāi)發(fā)表的、針對(duì)機(jī)器人設(shè)計(jì)的倫理標(biāo)準(zhǔn),比阿西莫夫的法則更為復(fù)雜,提出了如何對(duì)機(jī)器人的倫理風(fēng)險(xiǎn)進(jìn)行評(píng)估。
BSI文件的內(nèi)容一開(kāi)始是一系列寬泛的倫理原則:設(shè)計(jì)機(jī)器人的目的不應(yīng)該是為了殺死或傷害人類(lèi);負(fù)責(zé)任的主體應(yīng)該是人,而不是機(jī)器人;要能夠找出對(duì)機(jī)器人及其行為負(fù)責(zé)的主體。

接下來(lái)的內(nèi)容重點(diǎn)強(qiáng)調(diào)了一系列更具爭(zhēng)議性的問(wèn)題,比如同機(jī)器人建立感情紐帶是否可取,尤其是設(shè)計(jì)的機(jī)器人是用來(lái)與兒童或老年人進(jìn)行互動(dòng)的。
謝菲爾德大學(xué)機(jī)器人和人工智能名譽(yù)教授Noel Sharkey舉了一個(gè)例子,說(shuō)明機(jī)器人可以無(wú)意地欺騙我們。在一個(gè)幼兒園配備有小機(jī)器人,孩子們很喜歡它,認(rèn)為機(jī)器人比他們的家庭寵物認(rèn)知性更強(qiáng),實(shí)際上就是和機(jī)器人建立了情感紐帶。
該準(zhǔn)則表明設(shè)計(jì)者應(yīng)該致力于透明化,但科學(xué)家們卻說(shuō),在實(shí)際操作中這可能是非常困難的,因?yàn)槟壳癆I系統(tǒng)的問(wèn)題,特別是這些深度學(xué)習(xí)系統(tǒng),是不可能知道為什么他們會(huì)做出這樣或那樣決定的。比方說(shuō),深度學(xué)習(xí)代理在完成某一項(xiàng)具體任務(wù)時(shí),并不是按設(shè)定的方式;他們會(huì)嘗試數(shù)百萬(wàn)次,來(lái)找到一個(gè)成功的策略,以此來(lái)執(zhí)行任務(wù)——有時(shí)候這些策略是設(shè)計(jì)者都預(yù)想不到和無(wú)法理解的。
該準(zhǔn)則甚至暗示了可能會(huì)出現(xiàn)帶有性別歧視或種族歧視的機(jī)器人,并警惕大家:這些機(jī)器人可能會(huì)缺乏對(duì)文化多樣性和多元主義的尊重。這一現(xiàn)象已經(jīng)出現(xiàn)在警察所使用的技術(shù)上,比方說(shuō)機(jī)場(chǎng)應(yīng)用該類(lèi)技術(shù)識(shí)別出可疑的人,并將其進(jìn)行攔截,這就是一種種族歧視的評(píng)判。
并且,深度學(xué)習(xí)系統(tǒng)基本上使用互聯(lián)網(wǎng)上的全部數(shù)據(jù),但問(wèn)題是,這些數(shù)據(jù)是帶有傾向性的,就像這些系統(tǒng)傾向于支持中年白人男子。所有人類(lèi)的偏見(jiàn)都有可能被納入系統(tǒng),這非常危險(xiǎn)。
美國(guó)著名小說(shuō)家艾薩克·阿西莫夫(Isaac Asimov)曾為我們指出過(guò)機(jī)器人的基本行為規(guī)則:不傷害人類(lèi)、服從命令和保護(hù)機(jī)器人自己。最近,英國(guó)標(biāo)準(zhǔn)研究院(BSI)發(fā)布了一份更為官方的機(jī)器人倫理準(zhǔn)則文件,旨在幫助設(shè)計(jì)者創(chuàng)造合乎倫理的機(jī)器人。
BSI發(fā)布的這份文件叫作“BS8611機(jī)器人和機(jī)器人設(shè)備”,這是一份用干巴巴的語(yǔ)言編寫(xiě)的健康和安全手冊(cè),但里面所強(qiáng)調(diào)的不良場(chǎng)景可能直接取自科幻小說(shuō)。機(jī)器人欺騙、過(guò)度依賴(lài)機(jī)器人和自主學(xué)習(xí)系統(tǒng)可能會(huì)超出他們的權(quán)限,這些都是制造商應(yīng)該考慮到的危害。
這份文件是在牛津Social Robotics and AI大會(huì)上提出的,是英格蘭大學(xué)的機(jī)器人技術(shù)教授Alan Winfield指出,這些準(zhǔn)則代表了將倫理價(jià)值嵌入機(jī)器人和人工智能的第一步。這是第一個(gè)公開(kāi)發(fā)表的、針對(duì)機(jī)器人設(shè)計(jì)的倫理標(biāo)準(zhǔn),比阿西莫夫的法則更為復(fù)雜,提出了如何對(duì)機(jī)器人的倫理風(fēng)險(xiǎn)進(jìn)行評(píng)估。
BSI文件的內(nèi)容一開(kāi)始是一系列寬泛的倫理原則:設(shè)計(jì)機(jī)器人的目的不應(yīng)該是為了殺死或傷害人類(lèi);負(fù)責(zé)任的主體應(yīng)該是人,而不是機(jī)器人;要能夠找出對(duì)機(jī)器人及其行為負(fù)責(zé)的主體。
接下來(lái)的內(nèi)容重點(diǎn)強(qiáng)調(diào)了一系列更具爭(zhēng)議性的問(wèn)題,比如同機(jī)器人建立感情紐帶是否可取,尤其是設(shè)計(jì)的機(jī)器人是用來(lái)與兒童或老年人進(jìn)行互動(dòng)的。
謝菲爾德大學(xué)機(jī)器人和人工智能名譽(yù)教授Noel Sharkey舉了一個(gè)例子,說(shuō)明機(jī)器人可以無(wú)意地欺騙我們。在一個(gè)幼兒園配備有小機(jī)器人,孩子們很喜歡它,認(rèn)為機(jī)器人比他們的家庭寵物認(rèn)知性更強(qiáng),實(shí)際上就是和機(jī)器人建立了情感紐帶。
該準(zhǔn)則表明設(shè)計(jì)者應(yīng)該致力于透明化,但科學(xué)家們卻說(shuō),在實(shí)際操作中這可能是非常困難的,因?yàn)槟壳癆I系統(tǒng)的問(wèn)題,特別是這些深度學(xué)習(xí)系統(tǒng),是不可能知道為什么他們會(huì)做出這樣或那樣決定的。比方說(shuō),深度學(xué)習(xí)代理在完成某一項(xiàng)具體任務(wù)時(shí),并不是按設(shè)定的方式;他們會(huì)嘗試數(shù)百萬(wàn)次,來(lái)找到一個(gè)成功的策略,以此來(lái)執(zhí)行任務(wù)——有時(shí)候這些策略是設(shè)計(jì)者都預(yù)想不到和無(wú)法理解的。
該準(zhǔn)則甚至暗示了可能會(huì)出現(xiàn)帶有性別歧視或種族歧視的機(jī)器人,并警惕大家:這些機(jī)器人可能會(huì)缺乏對(duì)文化多樣性和多元主義的尊重。這一現(xiàn)象已經(jīng)出現(xiàn)在警察所使用的技術(shù)上,比方說(shuō)機(jī)場(chǎng)應(yīng)用該類(lèi)技術(shù)識(shí)別出可疑的人,并將其進(jìn)行攔截,這就是一種種族歧視的評(píng)判。
并且,深度學(xué)習(xí)系統(tǒng)基本上使用互聯(lián)網(wǎng)上的全部數(shù)據(jù),但問(wèn)題是,這些數(shù)據(jù)是帶有傾向性的,就像這些系統(tǒng)傾向于支持中年白人男子。所有人類(lèi)的偏見(jiàn)都有可能被納入系統(tǒng),這非常危險(xiǎn)。