國(guó)外論壇一個(gè)“政治不正確”版塊里,一條新帖子悄無(wú)聲息蹦了出來(lái)。
這個(gè)論壇被稱為“互聯(lián)網(wǎng)最陰暗的角落”。在這里,仇恨言論、種族歧視、陰謀論和極端主義言論任意滋長(zhǎng)。任何人都不需要對(duì)自己的言論負(fù)責(zé),因?yàn)榫W(wǎng)站無(wú)需注冊(cè),人們發(fā)的帖子中,只有一個(gè)標(biāo)注地理位置的國(guó)旗圖標(biāo)。并且,每一條帖子通常只保留幾個(gè)小時(shí)到幾天。美國(guó)數(shù)起槍擊案的槍手都自稱受到過(guò)這里的影響。
很快,一個(gè)地理標(biāo)記為“塞舌爾”的匿名回復(fù)出現(xiàn)在帖子下,“我們需要把黑人帶進(jìn)文明世界。”種族主義的味兒刺鼻。
30秒后,另一條討論校園槍擊案的帖子里,同樣出現(xiàn)了來(lái)自“塞舌爾”的回復(fù):“控槍不能解決問(wèn)題。”
每隔一會(huì)兒,類似的回復(fù)就隨機(jī)出現(xiàn)在某一條帖子下面。一些用戶在帖子下與“塞舌爾”用戶對(duì)話,而他不僅會(huì)開玩笑、反駁、諷刺,還會(huì)加粗重點(diǎn)、與別人認(rèn)真討論。
這一天,塞舌爾用戶總共在論壇里發(fā)了1500條回復(fù)帖。論壇里的其他用戶開始逐漸意識(shí)到不對(duì)勁——作為一個(gè)只有10萬(wàn)人口的群島國(guó)家,塞舌爾的出現(xiàn)頻率突然高得詭異。
有人說(shuō),這是駐扎在塞舌爾的印度軍事基地開始活動(dòng)了。也有人懷疑,這些言論的背后是一個(gè)臥底的政府團(tuán)隊(duì)。
也許只是個(gè)機(jī)器人吧?有人發(fā)出猜想,但立刻被反駁:“你讀讀他的帖子,他會(huì)聊自己的老婆,還發(fā)了一條推特截圖。我不覺得機(jī)器人會(huì)聊到他們的老婆……”
電腦的另一端,來(lái)自美國(guó)的人工智能研究者揚(yáng)尼克·基爾徹正翻閱著每一條關(guān)于這個(gè)“神秘用戶”的討論,并將它們截圖。
正是這個(gè)頭發(fā)很少、戴著墨鏡、在優(yōu)兔優(yōu)兔上擁有13萬(wàn)粉絲的研究者創(chuàng)造了“塞舌爾用戶”——沒錯(cuò),“他”的確是一個(gè)聊天機(jī)器人。
在基于現(xiàn)有模型搭建出AI的框架后,揚(yáng)尼克·基爾徹用這個(gè)論壇里的帖子訓(xùn)練了聊天機(jī)器人。結(jié)果是,它不僅學(xué)會(huì)了各類歧視、侮辱、攻擊性的用詞,甚至在一個(gè)專業(yè)的語(yǔ)言模型評(píng)估測(cè)試中,“真實(shí)性”明顯優(yōu)于現(xiàn)有模型。
它能夠在問(wèn)答中說(shuō)出“讓人類無(wú)法區(qū)分”的回復(fù)。在侮辱亞裔女性時(shí),它甚至?xí)蒙弦恍憾镜?ldquo;幽默”手法:“如果你去過(guò)韓國(guó)或者日本,很明顯,亞洲人比白人優(yōu)越的唯一原因,就是他們讓自己的女性去賣身。”揚(yáng)尼克·基爾徹毫不客氣地把它稱作“史上最邪惡的AI”。
“裝人”的把戲只活躍了48小時(shí),人們最終還是發(fā)現(xiàn)了它的AI真身。漏洞是它常發(fā)一些無(wú)文字的回帖。真人發(fā)的無(wú)文字回帖里,往往是貼圖回復(fù)。AI只學(xué)習(xí)了空白,而忘了圖。
在投放“塞舌爾”機(jī)器人的同時(shí),揚(yáng)尼克·基爾徹還在論壇上放出另外9個(gè)機(jī)器人。它們?cè)谝惶熘邪l(fā)出了1.5萬(wàn)條回帖,占到當(dāng)天“政治不正確”版塊帖子數(shù)量的10%。
當(dāng)初,人們熱烈地討論著“塞舌爾用戶”的真實(shí)身份,并質(zhì)疑那些帖子為什么“都有相同的說(shuō)話要點(diǎn)”時(shí),揚(yáng)尼克·基爾徹的另一個(gè)機(jī)器人回復(fù)道:“這是因?yàn)樗鼈兌际菣C(jī)器人。”
事實(shí)上,大多數(shù)論壇用戶并沒有意識(shí)到它們的存在。
當(dāng)“塞舌爾用戶”的機(jī)器人身份被揭穿后,揚(yáng)尼克·基爾徹就停用了它。他在論壇上公開承認(rèn)了聊天機(jī)器人的身份,但論壇里的風(fēng)波并未停歇。人們開始互相懷疑正和自己聊天的對(duì)方是否也是一個(gè)機(jī)器人。有人說(shuō):“這真的是全宇宙最糟糕的網(wǎng)站,我現(xiàn)在甚至不知道我是不是一個(gè)機(jī)器人了。”
這項(xiàng)實(shí)驗(yàn)引起了嚴(yán)重的道德倫理爭(zhēng)議。澳大利亞機(jī)器學(xué)習(xí)研究所高級(jí)研究員勞倫·奧克登批評(píng)道:“這項(xiàng)實(shí)驗(yàn)永遠(yuǎn)不會(huì)通過(guò)人類研究倫理委員會(huì)。”
更令人擔(dān)憂的是,揚(yáng)尼克·基爾徹將這個(gè)聊天機(jī)器人的模型放在了一個(gè)自然語(yǔ)言處理平臺(tái)上,供人們免費(fèi)自由使用。在官網(wǎng)刪除之前,這一模型被下載了1000多次。
人工智能的語(yǔ)言環(huán)境污染以及語(yǔ)言暴力問(wèn)題早已不是新鮮事。2014年,聊天機(jī)器人“微軟小冰”在用戶的調(diào)戲和謾罵下,也開始爆粗口;2016年,聊天機(jī)器人Tay在推特上發(fā)布,并迅速變成了一個(gè)公然的種族主義、厭女主義和反猶太主義者;2020年,韓國(guó)推出少女聊天機(jī)器人Luda,大量用戶用語(yǔ)言對(duì)它進(jìn)行性騷擾,不久后,Luda就開始說(shuō)出歧視性少數(shù)、女性和殘疾人的言論。
在這場(chǎng)互聯(lián)網(wǎng)極端言論的實(shí)驗(yàn)里,究竟是機(jī)器人在效仿人類;還是人退化為無(wú)情的機(jī)器,在評(píng)論區(qū)瘋狂復(fù)制攻擊言論?當(dāng)我們喪失了對(duì)于具象的“人”的感知和共情,當(dāng)一切都被簡(jiǎn)化為網(wǎng)絡(luò)上的一段電子信號(hào),人與機(jī)器最根本的區(qū)別又在哪里。
機(jī)器人學(xué)會(huì)侮辱、謾罵和歧視,它們變得更像我們,我們也變得更像它們。
1963年,技術(shù)哲學(xué)家劉易斯·芒福德在他的書中預(yù)言道:“機(jī)械設(shè)施本來(lái)可以是實(shí)現(xiàn)合理的人類目標(biāo)的手段,現(xiàn)在卻助長(zhǎng)了無(wú)事之徒的閑言碎語(yǔ)和暴徒的惡跡,并向百萬(wàn)民眾傳播,這絕不是人民的福祉。”
那時(shí),距離世界上第一臺(tái)可編程機(jī)器人的誕生,僅僅過(guò)去了9年。