當我們不可阻擋地朝著自動化的未來邁進,而人工智能又幾乎擁有無限可能時,我們必須搞清楚這一新興技術(shù)的道德影響,并解決出現(xiàn)在我們面前的前所未有的法律和社會挑戰(zhàn)。
洪智偉(馬來西亞)系聯(lián)合國教科文組織生物倫理和倫理科方案專家,2005年加入聯(lián)合國教科文組織,之前曾從事設計工程和工程管理工作。
達弗納·芬赫(墨西哥)系聯(lián)合國教科文組織生物倫理和倫理科科長,接受過心理學和生物倫理學的正式教育,曾任墨西哥全國生物倫理委員會秘書長。
每隔一段時間,我們就會遇到一種技術(shù),讓我們停下來去思考作為人類的意義。人工智能的問世要求我們深切反思其潛在的深遠影響。雖然這一技術(shù)背后的概念已經(jīng)在我們的集體想象中存在了幾十年,但它直到現(xiàn)在才成為我們生活中的現(xiàn)實。
人工智能技術(shù)的最新進展——特別是那些從總體來說與機器學習有關(guān),具體而言涉及深度學習的進展——已經(jīng)表明,人工智能支持系統(tǒng)的效率和效力在很多領(lǐng)域,包括在需要一定程度認知推理的任務方面,都能趕超人類。因此,人工智能有可能為人類帶來巨大進步并造福人類,但同時也會擾亂當前人類社會的經(jīng)濟和政治安排。
當我們思考人工智能的倫理影響時,應當明白了如今的人工智能究竟是什么。我們談及人工智能時,一般指的是“狹義人工智能”或“弱人工智能”,它旨在完成一項特定任務,例如分析和改善交通狀況,根據(jù)既往購買情況在線推薦產(chǎn)品等。這些“狹義人工智能”已經(jīng)存在,而且將變得越來越復雜,并融入我們的日常生活。
在這里,我們不談論科幻故事和電影中描述的“強人工智能”或者通用人工智能,據(jù)說它們能完成所有的人類認知任務。一些專家認為其甚至擁有“自我認知”和“意識”的特征。目前尚無通用人工智能是否可行的一致觀點,更不用說何時能夠?qū)崿F(xiàn)了。

《數(shù)字時代的隱私終結(jié)?》(Theendofprivacyinthedigitalage?)古巴漫畫家法爾科(Falco)作品
永無止境的數(shù)據(jù)收集
機器學習和深度學習方法需要大量的歷史和實時數(shù)據(jù),以便人工智能支持系統(tǒng)從“經(jīng)驗”中“學習”,同時還需要一個架構(gòu),以便人工智能在其所學的基礎(chǔ)上,實現(xiàn)目標或任務。這意味著我們在思考人工智能的倫理影響時,還必須顧及人工智能運作所需的復雜技術(shù)環(huán)境。這包括通過物聯(lián)網(wǎng)(InternetofThings)持續(xù)收集大數(shù)據(jù);將大數(shù)據(jù)存儲在云端;人工智能將大數(shù)據(jù)用于其“學習”過程;以及通過智能城市、自動駕駛汽車或機器人裝置等,進行人工智能分析或執(zhí)行任務。
技術(shù)發(fā)展越復雜,所產(chǎn)生的倫理問題就越復雜。雖然倫理原則沒有改變,但我們處理問題的方式會發(fā)生根本性的變化。因此,這些原則會在我們知情或不知情的情況下受到嚴重破壞。
例如,我們的隱私、保密和自主概念可能會發(fā)生根本性變化。通過智能設備和臉書、推特等已經(jīng)成為社交網(wǎng)絡工具的程序,我們在沒有切實了解數(shù)據(jù)的潛在用途和使用者的情況下,就“自由”和自愿地提供了個人信息。接著,這些數(shù)據(jù)被輸入主要由私營部門開發(fā)的人工智能支持系統(tǒng)。
由于沒有經(jīng)過匿名處理,關(guān)于我們的喜好和習慣的信息會被用來創(chuàng)建行為模式,使得人工智能能夠向我們推送政治信息,銷售商業(yè)應用程序,追蹤一些與我們的健康有關(guān)的活動等。
最好的一面和最差的一面
這會意味著隱私的終結(jié)嗎?數(shù)據(jù)安全情況如何,被黑客入侵的可能性有多大?這些數(shù)據(jù)會被國家用來控制人民,甚至以個人人權(quán)為代價嗎?一個持續(xù)監(jiān)測我們的喜好,并根據(jù)這些喜好為我們提供一系列選項的由人工智能支持的環(huán)境,會以某種方式限制我們的選擇自主性和創(chuàng)造性嗎?
另一個要考慮的重要問題是,人工智能支持系統(tǒng)用來“學習”的數(shù)據(jù)本身是否包含偏見或成見,從而可能使人工智能做出導致歧視或侮辱的“決定”。用于社會互動或提供社會服務的人工智能系統(tǒng)將特別容易受此影響。我們必須意識到,一些數(shù)據(jù),例如互聯(lián)網(wǎng)上生成的數(shù)據(jù),包含著反映人類最好一面和最差一面的信息。因此,僅靠人工智能支持系統(tǒng)從這些數(shù)據(jù)中學習,不足以確保產(chǎn)生合乎道德標準的成果,人為干預必不可少。
可以向人工智能支持系統(tǒng)傳授倫理道德嗎?一些哲學家認為,某些經(jīng)驗,如美學和倫理等,是人類與生俱來的,因此無法進行編程。其他人則提出,道德可以通過理性得到加強,因此可以進行編程,但同時必須尊重自由選擇。
能否僅在理性思考的基礎(chǔ)上,向人類傳授倫理和道德,就這一問題人們目前尚且都無法達成共識,更不用說傳授給人工智能了。即便最終可以通過編程使人工智能具備倫理道德,那我們又該使用誰的倫理道德呢?僅僅是開發(fā)者的嗎?鑒于人工智能的發(fā)展主要由私營部門推動,因此必須考慮到私營部門的倫理有可能不符合社會倫理。
要確保人工智能為我們所用,而不是與我們?yōu)閿?,我們就必須參與全面對話,對話當中要包含受人工智能影響的所有人的不同的倫理觀點。同時,為了能夠抵消對人類社會的潛在破壞,我們也必須確保,我們用來開發(fā)人工智能的倫理框架考慮到社會責任等更大的問題。