法國國民議會已經(jīng)批準(zhǔn)使用人工智能來幫助2024年巴黎奧運(yùn)會的視頻監(jiān)控。此舉遭到了權(quán)利團(tuán)體的反對,他們說使用人工智能可能會侵犯公民自由,同時(shí)為未來在整個(gè)歐洲使用侵入性算法驅(qū)動的視頻監(jiān)控鋪平道路。
法國政府通過了2024年奧運(yùn)會和殘奧會未決法律的第7條,授權(quán)使用來自固定和無人機(jī)攝像機(jī)的監(jiān)控視頻的自動分析。據(jù)稱,該系統(tǒng)可以檢測公共場所的特定可疑事件,如異常行為、預(yù)設(shè)事件和人群涌動。

雖然這項(xiàng)由人工智能驅(qū)動的監(jiān)控計(jì)劃可能在最高憲法法院受到質(zhì)疑,但法國看起來有望成為歐盟第一個(gè)使用這種系統(tǒng)的國家。
法國似乎忽視了38個(gè)民間社會組織的警告,這些組織在一封公開信中表達(dá)了他們對這項(xiàng)技術(shù)的擔(dān)憂。他們說,擬議的監(jiān)控措施違反了國際法,因?yàn)樗鼈冞`反了必要性和相稱性原則,并對基本權(quán)利構(gòu)成了不可接受的風(fēng)險(xiǎn),如隱私權(quán)、集會和結(jié)社自由,以及不受歧視的權(quán)利。
信中警告說,如果人工智能系統(tǒng)被采用,它將開創(chuàng)在公共場所進(jìn)行不合理和不相稱的監(jiān)控的先例。
"如果算法驅(qū)動的攝像機(jī)的目的是檢測公共場所的特定可疑事件,它們必然會捕捉和分析存在于這些空間的個(gè)人的生理特征和行為,如他們的身體位置、步態(tài)、動作、手勢或外觀,"公開信中寫道。"將個(gè)人從背景中隔離出來,否則就不可能實(shí)現(xiàn)系統(tǒng)的目標(biāo),這將相當(dāng)于'獨(dú)特的識別'。"
與人工智能監(jiān)控的情況一樣,也有歧視方面的擔(dān)心。"使用算法系統(tǒng)來打擊犯罪,導(dǎo)致了過度治安,刑事司法系統(tǒng)中的結(jié)構(gòu)性歧視,以及對種族、民族和宗教少數(shù)群體的過度定罪,"這些團(tuán)體補(bǔ)充說。
大赦國際的人工智能監(jiān)管宣傳顧問Mher Hakobyan說,這一決定使法國面臨著永久轉(zhuǎn)變?yōu)橐粋€(gè)二元監(jiān)控國家的風(fēng)險(xiǎn)。
法國國家信息與自由委員會(CNIL)監(jiān)管委員會在不處理生物識別數(shù)據(jù)的條件下支持該法案,但隱私倡導(dǎo)者認(rèn)為這種事情是不可能的。
數(shù)字權(quán)利組織Access Now的政策顧問Daniel Leufer說:"你可以做兩件事:對象檢測或人類行為分析--后者是對生物識別數(shù)據(jù)的處理"。