北京時間5月25日消息,ChatGPT的火爆儼然讓OpenAI CEO薩姆?阿爾特曼(Sam Altman)成了一位大明星?,F(xiàn)在,阿爾特曼正在全球巡回演講,談論人工智能(AI)的好處和適度監(jiān)管的必要性。然而,一些抗議者認為,阿爾特曼的愿景是危險的。
周三,當阿爾特曼來到英國倫敦大學學院進行演講時,排隊進入擁有985個座位的地下禮堂的人從門口往外排,站滿了幾段樓梯,一直排到街上,然后蜿蜒穿過一個城市街區(qū)。在陽光下排隊等候的人都在討論OpenAI以及他們使用ChatGPT的經(jīng)歷。
在禮堂內(nèi),阿爾特曼受到了搖滾明星般的接待。演講結束后,他被仰慕者團團圍住,讓他擺出自拍的姿勢,并就創(chuàng)業(yè)公司建造“護城河”的最佳方式征求意見。“這正常嗎?”一位難以置信的記者站在擁擠的人群里向一位OpenAI新聞人處理人員問道,回答是:“我們這次旅行所到之處幾乎都是這樣。”
在倫敦,阿爾特曼重復著熟悉的觀點,他指出人們擔心AI的影響是正確的,但在他看來,AI的潛在好處要大得多。他再次對潛在監(jiān)管表示歡迎,但僅限于正確的監(jiān)管。他說,他希望看到“介于傳統(tǒng)歐洲方法和傳統(tǒng)美國方法之間的東西”。也就是說,有一些監(jiān)管,但不要太多。他強調(diào),太多的規(guī)定可能會損害小公司和開源運動。
“另一方面,”他說,“我認為大多數(shù)人都會同意,如果有人真的攻克了難關,并建立了一個超級智能——不管你想怎么定義它——那么出現(xiàn)一些全球規(guī)則是合適的……我想確保我們至少像對待核材料一樣認真對待這個問題,因為超大規(guī)模的系統(tǒng)可以產(chǎn)生超級智能。”
遭到抗議
但是與此同時,禮堂外,六個舉著標語的年輕人呼吁OpenAI放棄開發(fā)通用人工智能(AGI,達到人類大腦同等智慧)的努力。一名抗議者拿著擴音器指責阿爾特曼有一種彌賽亞情結,為了自我而冒著毀滅人類的風險。彌賽亞情結也叫救世主情結,通過拯救他人使自己獲救,通過扮演一種救世主的角色來體會到自己的價值。
抗議者呼吁,OpenAI和像它這樣的公司需要停止開發(fā)先進的AI系統(tǒng),以免它們有機會傷害人類。
“聽著,也許他在詐騙。我真心希望他是這樣,”抗議者之一、牛津大學研究太陽能地質工程和生存風險的學生吉迪恩?富特曼(Gideon Futerman)這樣評價阿爾特曼,“但如果是這樣的話,他是在炒作有足夠已知危害的系統(tǒng)。不管怎么樣,我們或許應該阻止他們。如果他是對的,他正在構建系統(tǒng)是通用人工智能,那么危險會大得多。”
OpenAI的批評者認為,這種關于監(jiān)管超級智能(也被稱為AGI)的言論是花言巧語,是阿爾特曼采用的一種方法,旨在轉移人們對AI系統(tǒng)當前危害的注意力,讓立法者和公眾分心于科幻場景。
AI Now研究所的董事總經(jīng)理薩拉?邁爾斯?韋斯特(Sarah Myers West)上周表示,像阿爾特曼這樣的人“把問責制放在了未來”。韋斯特認為,相反,人們應該談論AI系統(tǒng)目前造成的已知威脅,從帶有種族偏見的面部識別,到錯誤信息的傳播。
阿爾特曼的言論沒有說服抗議者。倫敦大學學院政治學和倫理學碩士研究生阿利斯泰爾?斯圖爾特(Alistair Stewart)表示,他希望看到“對先進系統(tǒng)的某種暫?;蛑兄?rdquo;,這與AI研究人員和埃隆?馬斯克(Elon Musk)等知名科技人物最近簽署的一封公開信所倡導的相同。斯圖爾特表示,他并不一定認為阿爾特曼關于AI驅動的繁榮未來的愿景是錯誤的,但“不確定性太多”,不能聽憑運氣。
斯圖爾特說,阿爾特曼在演講完后出來和抗議者交談,但這沒能改變他的想法。他說,他們聊了大約一分鐘,討論了OpenAI的安全方法,包括同時開發(fā)AI系統(tǒng)及其護欄的能力。
“我聊完后比以前更擔心了,”斯圖爾特說,“我不知道他掌握了什么信息,讓他認為這行得通。”