美國《外交政策》雜志5月29日文章,原題:人工智能將加劇全球不平等現(xiàn)象人工智能(AI)競賽愈演愈烈,其風(fēng)險(xiǎn)也達(dá)到了前所未有的程度。包括阿里巴巴、谷歌和微軟在內(nèi),各大企業(yè)都在運(yùn)用強(qiáng)大的計(jì)算能力,推動AI進(jìn)步。此外,成百上千的私有企業(yè)和非營利組織也在推出軟件和程序,以期在這一新興市場占據(jù)一席之地。有關(guān)人士預(yù)測,這些成果將顛覆我們工作、娛樂、交易、創(chuàng)造財(cái)富和管理事物的方式。

資料圖(IC photo)

資料圖(IC photo)
機(jī)器人會代替人類嗎?
在一片樂觀的氛圍中,畏懼的情緒也在滋長。越來越多的科技巨頭和計(jì)算機(jī)科學(xué)家都表達(dá)了對復(fù)雜算法的擔(dān)憂,他們認(rèn)為在不久的將來,超級智械將迅速取代人類。2022年的一項(xiàng)調(diào)查表明,近一半受訪的AI專家認(rèn)為,這些技術(shù)至少有一成概率會毀滅人類。
對機(jī)器智能風(fēng)險(xiǎn)的擔(dān)憂由來已久。早在1872年,英國作家塞繆爾·巴特勒就在《烏有之鄉(xiāng)》一書中預(yù)言,有自主知覺的機(jī)器人終將代替人類。1942年,俄裔美籍科幻小說大師艾薩克·阿西莫夫提出了著名的“機(jī)器人三定律”:機(jī)器人不得傷害人類;機(jī)器人必須服從人類命令,除非這些命令與第一定律相沖突;機(jī)器人必須保護(hù)人類存在,只要這種保護(hù)不與第一定律或第二定律相沖突。
縱觀歷史,AI當(dāng)前的熱度同其混亂程度一樣達(dá)到了史無前例的水平。大型語言模型及其背后強(qiáng)大的計(jì)算能力不再局限于實(shí)驗(yàn)室,而是走向上億人的真實(shí)生活。不過,一些AI的忠實(shí)擁躉確信,如果不加以管控,AI將在不遠(yuǎn)的將來給人類帶來致命危害。曾經(jīng)遠(yuǎn)在天邊的理論威脅如今變得愈發(fā)真切,日前,有3.1萬余人聯(lián)名呼吁,暫停對強(qiáng)大AI模型的培訓(xùn),因?yàn)樗鼈兪?ldquo;當(dāng)今社會和人類面臨的最大風(fēng)險(xiǎn)”。
潛在危害集中在4個方面
早在這種焦慮蔓延開之前,北美和西歐地區(qū)的政府、企業(yè)和高校已就AI和潛在危害展開了討論。關(guān)注點(diǎn)主要聚焦在4個方面:首先,超級智能機(jī)器可能快速取代人類,帶來存在性威脅;第二,AI會加重失業(yè)形勢;第三,AI模仿及傳遞文本、語音和視頻的方式,會加劇虛假和錯誤信息的傳播;第四,AI可能會被用于研發(fā)生化或網(wǎng)絡(luò)病毒等末日科技,從而帶來毀滅性打擊。
隨著有關(guān)AI風(fēng)險(xiǎn)意識的增強(qiáng),用于緩沖風(fēng)險(xiǎn)的標(biāo)準(zhǔn)也在逐步完善。這些標(biāo)準(zhǔn)多數(shù)是自愿性的,例如大量有關(guān)設(shè)計(jì)責(zé)任感和自我約束的協(xié)議和準(zhǔn)則。實(shí)現(xiàn)人類利益最大化、提升設(shè)計(jì)安全性、以及算法優(yōu)化,這些都是常見的AI開發(fā)原則。算法透明、有關(guān)應(yīng)用的責(zé)任感和公平公正、隱私和數(shù)據(jù)保護(hù)、人為監(jiān)督和管控、以及合規(guī)性,都是AI的發(fā)展目標(biāo)。自愿性的自我監(jiān)管將逐漸失去關(guān)注,科技企業(yè)也在自發(fā)參與,推動建立AI管理機(jī)構(gòu)和更健全的制度體系。
然而,對保障體系的關(guān)注范圍還遠(yuǎn)遠(yuǎn)不夠。目前,有關(guān)AI和減輕其危害的策略的討論主要集中在西方世界。現(xiàn)行的政府和行業(yè)標(biāo)準(zhǔn)多數(shù)來源于歐盟、美國或是經(jīng)濟(jì)合作與發(fā)展組織的成員國。
歐盟即將推出新的AI法案,聚焦存在高風(fēng)險(xiǎn)的AI應(yīng)用和體系。西方世界對AI的關(guān)注,得益于各地區(qū)高度密集的AI企業(yè)、投資人和研究機(jī)構(gòu)。而在拉丁美洲、南部非洲、南亞和東南亞等地,盡管AI也在迅猛發(fā)展,其需求和擔(dān)憂卻并沒有出現(xiàn)在AI的相關(guān)討論中。換言之,有關(guān)AI影響和監(jiān)管的討論,主要集中在少數(shù)人口中。而全球67億人口所處的貧困和發(fā)展中國家,對有關(guān)問題投入的關(guān)注和資源要少很多。
低收入地區(qū)危害更甚
這種形勢有很大的風(fēng)險(xiǎn),由于缺乏AI監(jiān)管,全球南方地區(qū)面臨的負(fù)面影響更嚴(yán)重。AI更深層次的負(fù)面影響在于對平等機(jī)遇的侵害。放任AI自由發(fā)展,將擴(kuò)大各國的社會、經(jīng)濟(jì)和數(shù)字鴻溝,促使企業(yè)權(quán)力集中,深化技術(shù)壟斷,使西方早已千瘡百孔的民主制度雪上加霜。
盡管AI的危害是全球性的,但其對各地區(qū)的影響程度并不相同,在監(jiān)管體系和制度薄弱的中低收入的國家和地區(qū),其危害尤其嚴(yán)重。一方面,富有國家開發(fā)的算法和數(shù)據(jù),以及在發(fā)展中國家的后續(xù)應(yīng)用,會加重由于意識薄弱和多樣性不足導(dǎo)致的偏見和歧視。此外,由于薪資和勞動保護(hù)的不足,收入和技術(shù)水平較低的工人尤其面臨著被AI取代的風(fēng)險(xiǎn)。誠然,AI在全球南方的發(fā)展將帶來巨大的利益,但如果缺乏適當(dāng)?shù)谋O(jiān)管、倫理管控和對公眾意識的強(qiáng)化,我們就無法限制其負(fù)面影響。