英國赫特福德大學(xué)的科學(xué)家已經(jīng)開發(fā)出一種名為"授權(quán)"的概念,以幫助機(jī)器人保護(hù)和服務(wù)人類,同時保證自身安全。這個概念不是試圖讓機(jī)器理解復(fù)雜的倫理問題,而是基于機(jī)器人總是試圖保持他們的選擇開放,并做到理解擁抱所有人類。機(jī)器人在我們的家庭和工作場所越來越普遍,這種情況看起來將繼續(xù)下去。許多機(jī)器人將不得不在不可預(yù)知的情況下與人類互動。例如,自動駕駛汽車需要保證乘客的安全,同時保護(hù)汽車免受損壞。照顧老年人的機(jī)器人需要適應(yīng)復(fù)雜的情況,并滿足主人的需要。最近,像斯蒂芬·霍金這樣的思想家已經(jīng)警告人工智能的潛在危險,這引發(fā)了公眾的討論。參與這項研究的科學(xué)家丹尼爾·波拉尼(Daniel Polani)說:"公眾輿論似乎在對進(jìn)步的熱情和淡化任何風(fēng)險之間搖擺不定,而完全恐懼。使得 機(jī)器人與人工智能前沿.科學(xué)的研究也陷入了搖擺不定中。

然而,"智能"機(jī)器運行和人類創(chuàng)造者的概念并不是最近才提出的。1942年,科幻作家艾薩克·阿西莫夫提出了他的三條機(jī)器人定律,它規(guī)范了機(jī)器人如何與人類互動。簡單地說,這些定律規(guī)定機(jī)器人不應(yīng)該傷害人類,也不應(yīng)該允許人類受到傷害。法律還旨在確保機(jī)器人服從人類的命令,并保護(hù)自己的存在,只要這不會對人類造成傷害。這些法律是善意的,但它們很容易被誤解,特別是因為機(jī)器人不懂微妙和模棱兩可的人類語言。事實上,阿西莫夫的故事充滿了機(jī)器人曲解法律精神的例子,并產(chǎn)生了悲劇性的后果。一個問題就是,"傷害"的概念是復(fù)雜的,特定于上下文的,很難向機(jī)器人清楚地解釋。如果機(jī)器人不了解"傷害",他們?nèi)绾伪苊庠斐蓚Γ?quot;我們意識到,我們可以用不同的觀點來創(chuàng)造'好'的機(jī)器人行為,大致符合阿西莫夫定律"。團(tuán)隊開發(fā)的概念稱為"授權(quán)"。與其試圖讓機(jī)器理解復(fù)雜的道德問題,它的基礎(chǔ)是機(jī)器人總是試圖保持他們的選擇開放。Salge 解釋道:"授權(quán)意味著處于一種狀態(tài),即你能夠感知到的世界具有最大的潛在影響力。"因此,對于一個簡單的機(jī)器人來說,這可能會安全地回到它的發(fā)電站,而不是被卡住,這將限制其移動選項。
對于一個更具有未來感知的人類機(jī)器人來說,這不僅包括運動,而且還可以包含各種參數(shù),從而產(chǎn)生更人性化的驅(qū)動器。該團(tuán)隊對"授權(quán)"概念進(jìn)行數(shù)學(xué)編碼,以便機(jī)器人能夠采用該概念。雖然研究人員最初在2005年開發(fā)了"授權(quán)"概念,但在最近的一次關(guān)鍵開發(fā)中,他們擴(kuò)展了這一概念,使機(jī)器人來尋求維持人類的授權(quán)。"我們希望機(jī)器人通過與之互動的人類的眼睛來看到世界,"。"保護(hù)人類安全包括機(jī)器人,它增加了人類自身的能力。"在危險的情況下,機(jī)器人會盡量保持人類的生命,免受傷害,"。"我們不想受到機(jī)器人的壓迫性保護(hù),以盡量減少任何傷害的機(jī)會,我們希望生活在一個機(jī)器人保持我們?yōu)樗鼈冑x權(quán)的世界。這種利他主義授權(quán)概念可以為堅持阿西莫夫三定律(從自動駕駛汽車)到機(jī)器人管家的機(jī)器人提供動力。"最終,我們認(rèn)為授權(quán)可能會成為機(jī)器人整體道德行為的重要組成部分,"。