央廣網(wǎng)北京12月5日消息(記者馮爍)據(jù)中央廣播電視總臺中國之聲《新聞縱橫》報道,隨著智慧城市、智能設備越來越多地進入到人們的生活中,人工智能在賦能千行百業(yè)的同時,也帶來了安全、隱私、公平等問題和挑戰(zhàn)。諸如個人信息泄露問題,低俗劣質信息精準推送、“大數(shù)據(jù)殺熟”等算法歧視亂象凸顯出來。
近期,各國監(jiān)管機構也加大了對算法不公平的打擊力度。人工智能帶來了哪些新煩惱?面對這些煩惱人們真的束手無策嗎?
現(xiàn)如今人工智能已經(jīng)成為一股無可抵擋的潮流,甚至遍布于各個行業(yè)之中。然而當人工智能越來越懂人類時,我們不禁要擔心:這些人工智能會不會哪一天就把我們給“賣了”?
以近些年很多小區(qū)安裝的人臉識別門禁為例,不少業(yè)主都表示擔心被采集的人臉信息泄露。
各類人臉識別系統(tǒng)、手機App等都在廣泛采集用戶人臉、聲紋等具有強個人屬性的生物特征信息及行為軌跡等數(shù)據(jù),一旦泄露將威脅個人隱私。
數(shù)據(jù)安全是數(shù)字經(jīng)濟發(fā)展中最關鍵的安全挑戰(zhàn)之一,近些年國際社會上發(fā)生的數(shù)據(jù)泄露事件也并不少。今年8月,微軟服務器上約3800萬條記錄(包括私人信息)被暴露。此次的數(shù)據(jù)泄露包括用戶的姓名、地址、財務信息和新冠肺炎疫苗接種狀態(tài)等,人員涉及美國航空公司、福特公司以及馬里蘭州衛(wèi)生部和紐約市公共交通系統(tǒng)等公共機構。
從我國法律層面上看,今年11月,個人信息保護法正式實施,針對人臉識別等行為作出了明確規(guī)定。至此,連同已經(jīng)實施的數(shù)據(jù)安全法、網(wǎng)絡安全法,三者共同構成了我國在網(wǎng)絡安全和數(shù)據(jù)保護方面的法律“三駕馬車”。
國家新一代人工智能治理專業(yè)委員會主任薛瀾表示,新一代人工智能以數(shù)據(jù)為基礎,所以首要挑戰(zhàn)就是怎么樣能夠有高質量的數(shù)據(jù)集建設并對數(shù)據(jù)進行有效管理。
在購物網(wǎng)站上填個調(diào)查問卷,甚至連問卷都沒填,僅是瀏覽信息,就幾乎看不到一些選項范圍之外的商品廣告信息了;通過應用程序(App)閱讀了一條養(yǎng)生信息,隨后便會經(jīng)常收到養(yǎng)生知識、養(yǎng)生產(chǎn)品的廣告推送……這都是“算法歧視”,很多人有切身感受。
當前,人工智能技術的發(fā)展正處在關鍵十字路口。12月4日,2021人工智能合作與治理國際論壇在京開幕,大咖云集。他們?nèi)绾慰创@個問題?人工智能又應該怎樣去踐行“科技向善”呢?
今年年初,中國消費者協(xié)會就消費領域不合理的算法現(xiàn)象發(fā)聲,揭露出“大數(shù)據(jù)殺熟”的六種現(xiàn)象,其中就包括大家非常熟悉的“精準推送”——這是指互聯(lián)網(wǎng)平臺通過監(jiān)測分析消費者的消費行蹤軌跡,如瀏覽過的頁面、廣告、商品服務、話題等,有針對性地對消費者進行商業(yè)營銷。
一位來自南京的消費者告訴記者:“比如,我5分鐘之前跟朋友聊到電動牙刷,5分鐘后我打開某些電商平臺,它就會給我推送這種商品,而這種商品是我之前沒有搜索過的。”
的確,隨著人工智能技術的發(fā)展,更精準地讀懂大家想要什么在一些場合下變得非常方便,但是一旦這種對信息的收集越了界,將給大家?guī)頍o盡的困擾。
目前我國已經(jīng)陸續(xù)出臺了一系列政策,為“大數(shù)據(jù)殺熟”戴上緊箍咒。11月18日,上海率先在電子商務領域出臺地方性指引,制定發(fā)布《上海市網(wǎng)絡交易平臺網(wǎng)絡營銷活動算法應用指引(試行)》,明確平臺經(jīng)營者不得利用算法實施不正當價格行為,不得利用算法對消費者實施不合理的差別待遇。
今年8月,國家網(wǎng)信辦已經(jīng)出臺了《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定(征求意見稿)》,要求算法推薦服務提供者應當定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù)和應用結果等,不得設置誘導用戶沉迷或者高額消費等違背公序良俗的算法模型。
不少專家都表示,發(fā)展人工智能,必須堅持技術永遠服務人的原則,而不是利用技術來窺探人、傷害人。
對此,清華大學智能社會治理研究院院長蘇竣指出:“算法以前所未有的速度和無與倫比的精度處理數(shù)據(jù),讓占據(jù)了用戶數(shù)據(jù)和高級算法優(yōu)勢的個體或組織,因此獲取了極大的權力,形成壟斷性的超級平臺,對市場活動中的勞動者權益和消費者的福利造成了無邊界的蠶食。當今社會,每個人其實都被困在各式各樣的算法里。”
眾所周知,人工智能是在特定模型下自我學習形成算法的,訓練模型所依據(jù)的數(shù)據(jù)集和模型本身的設計都有可能帶來偏差。而這就會帶來歧視問題。
美國卡內(nèi)基梅隆大學學者就曾經(jīng)用釣魚軟件模擬普通用戶瀏覽求職網(wǎng)站的實驗,然后統(tǒng)計谷歌推送“年薪20萬美元以上的職位”的廣告數(shù)據(jù),結果男性收到1852次推送,女性收到318次。結果很明顯,平臺可以通過后臺進行關鍵詞設置,可以“操作”每類人群收到的信息頻率。
一位來自美國的黑人女士喬伊也曾公開表示,在實習中她遭遇了這樣一種情況——由于自己是黑人臉龐,所以人臉識別攝像頭無法識別她的面容。
對此,清華大學人工智能國際治理研究院學術委員龔克表示,人工智能很可能會導致廣泛的歧視和不公問題,這種算法偏見亟待糾偏。
“我們現(xiàn)在使用人工智能的時候,是靠數(shù)據(jù)來訓練模型,而我們從社會中采集的數(shù)據(jù)帶有了現(xiàn)實社會的很多偏見。如果我們沒有適當?shù)募夹g對我們的算法進行偏見的檢測、去除,公平無歧視的原則就會變得沒有辦法落地。”龔克說。