在人工智能發(fā)展的路上,我們始終追尋一個答案:人類能否牢牢把握智能機(jī)器人的控制權(quán),讓機(jī)器永遠(yuǎn)做人類的奴隸?
2022年世界互聯(lián)網(wǎng)大會人工智能與數(shù)字倫理論壇給了我們答案:不能。
清華大學(xué)人工智能研究院名譽(yù)院長、中國科學(xué)院院士張鈸解釋,早期無智能的機(jī)器才能完全聽從人類的指揮,一旦讓機(jī)器朝著智能化方向發(fā)展,就不能讓機(jī)器完全聽從人類的擺布,需要賦予它一定的自由度和自主權(quán)。
從技術(shù)層面來看,深層次神經(jīng)網(wǎng)絡(luò)則是根據(jù)這一原理,利用概率數(shù)據(jù)工具,使機(jī)器能夠生成豐富多樣的文本和圖像。但亦會存在風(fēng)險——生成不合格和有害文本與圖像的概率。
“這是我們賦予機(jī)器智能的同時,所必須付出的代價,難以避免。”張鈸說,人工智能的發(fā)展必然帶來對倫理和傳統(tǒng)規(guī)范的沖擊。
只不過沒想到的是,這一擔(dān)憂來得這么快。本世紀(jì)初,基于大數(shù)據(jù)的深度學(xué)習(xí)被廣泛地應(yīng)用在各個領(lǐng)域,用來完成決策、預(yù)測和推薦等任務(wù),給人類社會帶來很大的影響。但是人們很快發(fā)現(xiàn),基于大數(shù)據(jù)的深度學(xué)習(xí)算法,具有不透明、不可控和不可靠等缺陷,導(dǎo)致人工智能技術(shù)很容易被無意誤用,可能給人類社會帶來嚴(yán)重的后果。
這樣的不良后果包括一旦神經(jīng)網(wǎng)絡(luò)違背用戶的要求,生成充滿種族、性別等偏見,不公正和錯誤百出的文本和圖像,就會完全不受使用者的控制,可能帶來破壞公正性和公平性的嚴(yán)重后果。
“我們以為只有當(dāng)機(jī)器人的智能接近或者超過人類之后,我們才會失去對它的控制,沒有想到的是,在機(jī)器智能還是如此低下的時候,我們已經(jīng)失去對它的控制。”張鈸提醒,人工智能的倫理風(fēng)險就在眼前,治理迫在眉睫。
那能否通過給機(jī)器規(guī)定嚴(yán)格的倫理準(zhǔn)則,來限制它的錯誤行為?難!張鈸解釋,不僅因為倫理的準(zhǔn)則很難準(zhǔn)確描述,即便可以定義,也很難執(zhí)行。
張鈸分析,人工智能無論是被有意濫用還是無意、誤意都需要治理,不過這兩者的治理性質(zhì)完全不同。前者要靠法律約束和社會輿論的監(jiān)督,是帶有強(qiáng)制性的治理。后一種則需要通過制定相應(yīng)的評估準(zhǔn)則和規(guī)則,對人工智能的研究開發(fā)和使用過程,進(jìn)行嚴(yán)格的科學(xué)評估和全程監(jiān)管,以及采取補(bǔ)救措施等,避免人工智能被誤用。
“從根本來講,人工智能的研究、開發(fā)都需要以人為本,從公正公平的倫理原則出發(fā)做負(fù)責(zé)任的人工智能。”張鈸說,當(dāng)下發(fā)展第三代人工智能的思路是,努力建立可解釋的魯棒(音譯自“robust”,學(xué)術(shù)上即一個系統(tǒng)或組織有抵御或克服不利條件的能力)人工智能理論。在此基礎(chǔ)上才有可能開發(fā)出安全、可信、可控、可靠和可擴(kuò)展的人工智能技術(shù),最終推動人工智能的公平、公正和有益于全人類的應(yīng)用與發(fā)展。
重中之重是建立國際合作。張鈸提出,世界應(yīng)當(dāng)通力合作,共同制定出一套符合全人類利益的標(biāo)準(zhǔn),讓人工智能健康發(fā)展,造福于全人類。
2022年世界互聯(lián)網(wǎng)大會人工智能與數(shù)字倫理論壇給了我們答案:不能。
清華大學(xué)人工智能研究院名譽(yù)院長、中國科學(xué)院院士張鈸解釋,早期無智能的機(jī)器才能完全聽從人類的指揮,一旦讓機(jī)器朝著智能化方向發(fā)展,就不能讓機(jī)器完全聽從人類的擺布,需要賦予它一定的自由度和自主權(quán)。
從技術(shù)層面來看,深層次神經(jīng)網(wǎng)絡(luò)則是根據(jù)這一原理,利用概率數(shù)據(jù)工具,使機(jī)器能夠生成豐富多樣的文本和圖像。但亦會存在風(fēng)險——生成不合格和有害文本與圖像的概率。
“這是我們賦予機(jī)器智能的同時,所必須付出的代價,難以避免。”張鈸說,人工智能的發(fā)展必然帶來對倫理和傳統(tǒng)規(guī)范的沖擊。

清華大學(xué)人工智能研究院名譽(yù)院長、中國科學(xué)院院士張鈸線上發(fā)表演講
只不過沒想到的是,這一擔(dān)憂來得這么快。本世紀(jì)初,基于大數(shù)據(jù)的深度學(xué)習(xí)被廣泛地應(yīng)用在各個領(lǐng)域,用來完成決策、預(yù)測和推薦等任務(wù),給人類社會帶來很大的影響。但是人們很快發(fā)現(xiàn),基于大數(shù)據(jù)的深度學(xué)習(xí)算法,具有不透明、不可控和不可靠等缺陷,導(dǎo)致人工智能技術(shù)很容易被無意誤用,可能給人類社會帶來嚴(yán)重的后果。
這樣的不良后果包括一旦神經(jīng)網(wǎng)絡(luò)違背用戶的要求,生成充滿種族、性別等偏見,不公正和錯誤百出的文本和圖像,就會完全不受使用者的控制,可能帶來破壞公正性和公平性的嚴(yán)重后果。
“我們以為只有當(dāng)機(jī)器人的智能接近或者超過人類之后,我們才會失去對它的控制,沒有想到的是,在機(jī)器智能還是如此低下的時候,我們已經(jīng)失去對它的控制。”張鈸提醒,人工智能的倫理風(fēng)險就在眼前,治理迫在眉睫。
那能否通過給機(jī)器規(guī)定嚴(yán)格的倫理準(zhǔn)則,來限制它的錯誤行為?難!張鈸解釋,不僅因為倫理的準(zhǔn)則很難準(zhǔn)確描述,即便可以定義,也很難執(zhí)行。
張鈸分析,人工智能無論是被有意濫用還是無意、誤意都需要治理,不過這兩者的治理性質(zhì)完全不同。前者要靠法律約束和社會輿論的監(jiān)督,是帶有強(qiáng)制性的治理。后一種則需要通過制定相應(yīng)的評估準(zhǔn)則和規(guī)則,對人工智能的研究開發(fā)和使用過程,進(jìn)行嚴(yán)格的科學(xué)評估和全程監(jiān)管,以及采取補(bǔ)救措施等,避免人工智能被誤用。
“從根本來講,人工智能的研究、開發(fā)都需要以人為本,從公正公平的倫理原則出發(fā)做負(fù)責(zé)任的人工智能。”張鈸說,當(dāng)下發(fā)展第三代人工智能的思路是,努力建立可解釋的魯棒(音譯自“robust”,學(xué)術(shù)上即一個系統(tǒng)或組織有抵御或克服不利條件的能力)人工智能理論。在此基礎(chǔ)上才有可能開發(fā)出安全、可信、可控、可靠和可擴(kuò)展的人工智能技術(shù),最終推動人工智能的公平、公正和有益于全人類的應(yīng)用與發(fā)展。
重中之重是建立國際合作。張鈸提出,世界應(yīng)當(dāng)通力合作,共同制定出一套符合全人類利益的標(biāo)準(zhǔn),讓人工智能健康發(fā)展,造福于全人類。