據(jù)美國財經(jīng)資訊網(wǎng)站QUARTZ 11月25日報道,美國馬薩諸塞州的研究者們試圖做一件科幻電影里預言的場景,即指導機器人對某些指示做出相應拒絕。塔夫特實驗小組也已提出相關(guān)策略,教會機器人識別特定情況,適時說“不”。

通常來講,機器人是應該始終對人類的指示唯命是從的。當然,在汽車生產(chǎn)線上,對于一些對人類有潛在危險的工具,機器人是可以幫助進行游刃有余的進行操作。但是,每天我們也都在研究更新更加智能的機器人,讓它們有能力來作出判斷。這便帶來了一個棘手的問題,怎樣在程序中設(shè)置一項機器人的思維反應,可以讓它們在不對自己和人類有害的前提下,作出正確的選擇。
這也是美國塔夫斯大學人機交互實驗室要研究解決的問題。他們也已經(jīng)提出了相關(guān)策略來指導機器人智能應對人類指示。此種策略與人類大腦在接收到話語指示時的運行類似。在你要被指示做某事時,將會有一系列關(guān)于信任與道德的問題要思考。比如說,“我知道要怎么操作嗎?”,“這件事是否在我工作范圍內(nèi)?”以及確認“要做這件事的話,我是否違背了正常的規(guī)則?”并且最后的關(guān)鍵的一點是,一定不要傷害人類以及相關(guān)財產(chǎn)安全。
塔夫特實驗小組將人類的一些內(nèi)心獨白簡化為一系列邏輯論證,內(nèi)置于機器人相關(guān)軟件中加以識別。例如,在試驗中,當命令機器人直直的朝一扇墻走去時,他果斷拒絕,因為它自己識別到了該指示會帶來危險。這項進展也著實令人欣慰。
最近谷歌的自動駕駛汽車顯示,機器道德越來越成為一個嚴重的問題。這些自動駕駛汽車都安裝有機器人設(shè)備,在開闊道路上,如果它們盲目的遵循設(shè)定指示時,遇到復雜棘手的路況時,便會給乘客帶來危險。
如果你有幸與塔夫特實驗組一起工作,你就可以見證機器人是如何思考,并且目睹在指示不合常理,有望傷人的情況下,它們是怎樣義正言辭的說出“對不起,我不能這樣做!”。