命令控制式監(jiān)管效果不佳
每當(dāng)資本主義經(jīng)濟(jì)自我調(diào)節(jié)功能失控時(shí),政府會(huì)予以干預(yù),以此恢復(fù)經(jīng)濟(jì)的正常運(yùn)行以及公眾對(duì)政府的信任。謝卡爾表示,從歷史上看,這種干預(yù)措施往往采取法定監(jiān)管的形式,即政府命令被監(jiān)管者遵守一定的規(guī)則,從而實(shí)現(xiàn)特定的監(jiān)管效果,并對(duì)違規(guī)行為進(jìn)行制裁,這是一種命令控制式的監(jiān)管方法。然而,要形成有效的命令控制式監(jiān)管方法是需要前提的,例如,企業(yè)的發(fā)展進(jìn)程緩慢,需要數(shù)十年才能培育出一個(gè)新的市場(chǎng),立法者和監(jiān)管方有足夠的時(shí)間和空間來(lái)制定“完美”的命令控制式監(jiān)管方法,糾正市場(chǎng)上出現(xiàn)的功能失調(diào)現(xiàn)象。
在當(dāng)今世界,新技術(shù)層出不窮,各類(lèi)商業(yè)模式如雨后春筍般出現(xiàn),企業(yè)的發(fā)展速度飛快,命令控制式監(jiān)管難以跟上市場(chǎng)的發(fā)展節(jié)奏。謝卡爾表示,命令控制式監(jiān)管通常規(guī)定了被監(jiān)管者的重大合規(guī)義務(wù),同時(shí)還要求建立全新的執(zhí)法和合規(guī)監(jiān)督機(jī)制,這有可能給公共財(cái)政帶來(lái)沉重負(fù)擔(dān)。因此,監(jiān)管機(jī)構(gòu)必須非常謹(jǐn)慎地確定監(jiān)管的領(lǐng)域和范圍,并把握好監(jiān)管程度,以避免監(jiān)管不足或過(guò)度監(jiān)管。為了做到這一點(diǎn),監(jiān)管機(jī)構(gòu)必須準(zhǔn)確理解監(jiān)管內(nèi)容,具備適應(yīng)監(jiān)管主體和領(lǐng)域變化的能力。如果無(wú)法滿(mǎn)足以上條件,那么由此產(chǎn)生的命令控制式監(jiān)管很可能是效果不佳或無(wú)效的。
人工智能技術(shù)正以驚人的速度發(fā)展,導(dǎo)致人們無(wú)法對(duì)有限的創(chuàng)新案例及其帶來(lái)的風(fēng)險(xiǎn)和收益進(jìn)行及時(shí)、準(zhǔn)確的識(shí)別。在謝卡爾看來(lái),人工智能的進(jìn)步與引導(dǎo)其正規(guī)發(fā)展的監(jiān)管機(jī)制之間存在鴻溝,而且在中低收入國(guó)家表現(xiàn)得尤為突出。命令控制式監(jiān)管可能對(duì)其監(jiān)管主體和范圍都不明晰,例如,在歐盟委員會(huì)提出的人工智能法規(guī)中,人工智能及其使用案例的定義明顯含糊不清,引起了民間組織和技術(shù)界的大量批評(píng)。此類(lèi)情況,將不可避免地導(dǎo)致監(jiān)管機(jī)構(gòu)對(duì)人工智能創(chuàng)新和企業(yè)活動(dòng)的監(jiān)管不足或過(guò)度監(jiān)管,引發(fā)監(jiān)管不確定性或行業(yè)參與者的不適。由此產(chǎn)生的監(jiān)管模式,可能會(huì)扼殺投資和創(chuàng)新,從而嚴(yán)重?fù)p害人工智能行業(yè)的發(fā)展前景,錯(cuò)失人工智能帶來(lái)生產(chǎn)力收益和公共利益的機(jī)會(huì)。
建立政府主導(dǎo)的行業(yè)自我監(jiān)管制度
人工智能的快速發(fā)展要求形成一個(gè)強(qiáng)有力的政府主導(dǎo)的行業(yè)自我監(jiān)管制度。謝卡爾表示,在這一制度下,政府將通過(guò)與各利益相關(guān)方的嚴(yán)格協(xié)商確定監(jiān)管的目標(biāo)或原則,而非直接規(guī)定監(jiān)管的手段和方法。與此同時(shí),相關(guān)行業(yè)會(huì)制定適當(dāng)?shù)臉?biāo)準(zhǔn)和行為守則來(lái)承擔(dān)這一責(zé)任,然后政府可以選擇對(duì)其進(jìn)行認(rèn)證。這一制度具有較大的潛力,可以將政府監(jiān)督與行業(yè)的專(zhuān)業(yè)知識(shí)相結(jié)合,實(shí)現(xiàn)對(duì)人工智能市場(chǎng)的快速響應(yīng)和干預(yù),平衡企業(yè)與公共安全利益。
當(dāng)然,有的批評(píng)者可能會(huì)質(zhì)疑政府主導(dǎo)的行業(yè)自我監(jiān)管制度的有效性,他們認(rèn)為在任何行業(yè)的自我監(jiān)管中,私營(yíng)企業(yè)的獲利動(dòng)機(jī)與公共利益之間總是存在沖突。例如,人工智能產(chǎn)品在采用某種安全標(biāo)準(zhǔn)時(shí)有可能帶來(lái)的巨大成本,有損企業(yè)的利益,企業(yè)為了削減成本,就會(huì)將非標(biāo)準(zhǔn)化的產(chǎn)品推向市場(chǎng),在這種情況下,行業(yè)的自我監(jiān)管制度顯然就會(huì)失敗。
謝卡爾從三個(gè)方面反駁了上述觀(guān)點(diǎn)。首先,從根本上看,該制度仍以政府為主導(dǎo)。政府?dāng)M議的監(jiān)管方法是基于明確的框架,要求人工智能行業(yè)把具體實(shí)踐匯報(bào)給政府,這需要行業(yè)盡職盡責(zé)地實(shí)現(xiàn)自我監(jiān)管,做到與政府規(guī)定的負(fù)責(zé)任的人工智能監(jiān)管目標(biāo)和原則相一致。其次,發(fā)展負(fù)責(zé)任的人工智能可以帶來(lái)巨大的市場(chǎng)利益,這一優(yōu)勢(shì)變得日益明顯。人工智能企業(yè)逐漸意識(shí)到實(shí)施負(fù)責(zé)任的人工智能實(shí)踐,能夠更好地留住人才和客戶(hù),在未來(lái)競(jìng)標(biāo)活動(dòng)中更具優(yōu)勢(shì)。最后,全球已有許多民間組織和跨學(xué)科智庫(kù),開(kāi)始著手跟蹤人工智能帶來(lái)的各類(lèi)風(fēng)險(xiǎn),并提出了相關(guān)應(yīng)對(duì)措施,確保人工智能企業(yè)將公平、透明、問(wèn)責(zé)等原則列為企業(yè)優(yōu)先事項(xiàng)。人工智能企業(yè)越來(lái)越意識(shí)到,在當(dāng)今互聯(lián)互通的世界中,公眾普遍對(duì)人工智能的不道德應(yīng)用帶來(lái)的風(fēng)險(xiǎn)進(jìn)行譴責(zé)。任何不負(fù)責(zé)任的行為,都會(huì)削弱政府對(duì)人工智能行業(yè)自我監(jiān)管的信心,迫使政府采取外部措施推動(dòng)行業(yè)良性發(fā)展,這成為優(yōu)化企業(yè)行為的強(qiáng)大激勵(lì)因素。