在人工智能發(fā)展的路上,我們始終追尋一個答案:人類能否牢牢把握智能機器人的控制權(quán),讓機器永遠做人類的奴隸?

清華大學人工智能研究院名譽院長、中國科學院院士張鈸線上發(fā)表演講。中國網(wǎng)圖
2022年世界互聯(lián)網(wǎng)大會人工智能與數(shù)字倫理論壇給了我們答案:不能。
清華大學人工智能研究院名譽院長、中國科學院院士張鈸解釋,早期無智能的機器才能完全聽從人類的指揮,一旦讓機器朝著智能化方向發(fā)展,就不能讓機器完全聽從人類的擺布,需要賦予它一定的自由度和自主權(quán)。
從技術(shù)層面來看,深層次神經(jīng)網(wǎng)絡則是根據(jù)這一原理,利用概率數(shù)據(jù)工具,使機器能夠生成豐富多樣的文本和圖像。但亦會存在風險——生成不合格和有害文本與圖像的概率。
“這是我們賦予機器智能的同時,所必須付出的代價,難以避免。”張鈸說,人工智能的發(fā)展必然帶來對倫理和傳統(tǒng)規(guī)范的沖擊。

清華大學人工智能研究院名譽院長、中國科學院院士張鈸線上發(fā)表演講。中國網(wǎng)圖
只不過沒想到的是,這一擔憂來得這么快。本世紀初,基于大數(shù)據(jù)的深度學習被廣泛地應用在各個領域,用來完成決策、預測和推薦等任務,給人類社會帶來很大的影響。但是人們很快發(fā)現(xiàn),基于大數(shù)據(jù)的深度學習算法,具有不透明、不可控和不可靠等缺陷,導致人工智能技術(shù)很容易被無意誤用,可能給人類社會帶來嚴重的后果。
這樣的不良后果包括一旦神經(jīng)網(wǎng)絡違背用戶的要求,生成充滿種族、性別等偏見,不公正和錯誤百出的文本和圖像,就會完全不受使用者的控制,可能帶來破壞公正性和公平性的嚴重后果。
“我們以為只有當機器人的智能接近或者超過人類之后,我們才會失去對它的控制,沒有想到的是,在機器智能還是如此低下的時候,我們已經(jīng)失去對它的控制。”張鈸提醒,人工智能的倫理風險就在眼前,治理迫在眉睫。
那能否通過給機器規(guī)定嚴格的倫理準則,來限制它的錯誤行為?難!張鈸解釋,不僅因為倫理的準則很難準確描述,即便可以定義,也很難執(zhí)行。
張鈸分析,人工智能無論是被有意濫用還是無意、誤意都需要治理,不過這兩者的治理性質(zhì)完全不同。前者要靠法律約束和社會輿論的監(jiān)督,是帶有強制性的治理。后一種則需要通過制定相應的評估準則和規(guī)則,對人工智能的研究開發(fā)和使用過程,進行嚴格的科學評估和全程監(jiān)管,以及采取補救措施等,避免人工智能被誤用。
“從根本來講,人工智能的研究、開發(fā)都需要以人為本,從公正公平的倫理原則出發(fā)做負責任的人工智能。”張鈸說,當下發(fā)展第三代人工智能的思路是,努力建立可解釋的魯棒(音譯自“robust”,學術(shù)上即一個系統(tǒng)或組織有抵御或克服不利條件的能力)人工智能理論。在此基礎上才有可能開發(fā)出安全、可信、可控、可靠和可擴展的人工智能技術(shù),最終推動人工智能的公平、公正和有益于全人類的應用與發(fā)展。
重中之重是建立國際合作。張鈸提出,世界應當通力合作,共同制定出一套符合全人類利益的標準,讓人工智能健康發(fā)展,造福于全人類。