本報訊(記者計紅梅)“建議加快制定我國人工智能法律、法規(guī)及安全倫理標準,確保人工智能健康、穩(wěn)定發(fā)展,如盡快組織起草人工智能基本法等。”8月6日,在中國計算機學會(CCF)于蘇州舉行的“國家科技創(chuàng)新體系與計算機戰(zhàn)略發(fā)展研討會”上,中國工程院院士、國家并行計算機工程技術研究中心總工程師陳左寧作了題為《新一代人工智能安全與自主可控發(fā)展戰(zhàn)略研究》的報告,并提出如是建議。她表示,該報告內(nèi)容是包括中國工程院院士高文等在內(nèi)的多位院士共同的思想結晶,也是中國工程院一項重大戰(zhàn)略咨詢課題的研究成果。

近年來,人工智能系統(tǒng)在發(fā)展和應用中暴露出大量安全問題。陳左寧表示,人工智能之所以會引發(fā)安全問題,主要是因為其具有學習能力,可以自主決策、自主行動。具體而言,人工智能系統(tǒng)中廣泛應用機器學習的三個重要屬性是形成安全問題的基本原因,如機器學習的可理解性和可解釋性問題、魯棒性問題,以及目標函數(shù)或獎勵函數(shù)描述的不完備性問題。
她認為可以從兩個角度對人工智能的安全問題進行分類。從廣義上講,人工智能安全問題包含人工智能系統(tǒng)作為一種人造系統(tǒng)(工程的系統(tǒng)或信息系統(tǒng))的安全性問題,即人工智能技術的應用造成的經(jīng)濟和文化的、法律和倫理的、國家和社會的安全問題,以及由于人工智能系統(tǒng)具有思維和自我發(fā)展能力而可能形成的對人類整體的安全威脅。

此外,人工智能安全問題還可以分為內(nèi)生安全問題和衍生安全問題。前者是指人工智能系統(tǒng)本身由于設計、制造、使用環(huán)境或受到攻擊所產(chǎn)生的安全問題;后者則是指由于人工智能技術的應用而衍生出來的對其他系統(tǒng)安全性的影響問題。
陳左寧介紹,圍繞安全問題的解決,多位中國工程院院士提出了建議,具體包括如下方面:一是要明確主管部門,建立平臺機構。建議明確國家層面主管人工智能安全與倫理審查的部門,建立國家人工智能技術與產(chǎn)品應用的檢測、評估平臺或機構。二是加快我國人工智能的法律、法規(guī)及安全倫理標準制定,確保人工智能健康、穩(wěn)定發(fā)展。例如,盡快組織起草人工智能基本法,為人工智能技術開發(fā)和應用制定基礎性法律文件。三是將人工智能安全與自主可控關鍵技術納入現(xiàn)有研究專項,壯大人才隊伍。四是積極推動人工智能安全領域的國際合作,共筑人類人工智能安全共同體。五是優(yōu)化人工智能產(chǎn)業(yè)生態(tài)發(fā)展模式,實現(xiàn)人工智能應用產(chǎn)業(yè)鏈要素自主可控。