日前,上海市社會科學(xué)界聯(lián)合會舉辦以“人工智能與社會變革”為主題的“東方講壇·科技與人文的對話”。同濟(jì)大學(xué)教授汪鐳、上海交通大學(xué)教授江曉原、復(fù)旦大學(xué)教授于海等就人工智能的未來等話題展開深入對話。
專家認(rèn)為,反思人工智能的過程,也是反思人類自身的過程。以前一直說科學(xué)沒有禁區(qū),但現(xiàn)在看來,科學(xué)仍然有不可逾越的紅線。這個禁區(qū)可以在不同的時間里有所改變。比如,某些事情當(dāng)人類社會已經(jīng)準(zhǔn)備好了,能夠有倫理或者法律的東西規(guī)范時,或許就可以開放這個區(qū)域。
與會者認(rèn)為,不應(yīng)該無限制地發(fā)展人工智能。首先,要對科學(xué)技術(shù)可能的危險有充分認(rèn)識,其次,要警惕科學(xué)與資本的共謀。今天科學(xué)告別了純真年代,轉(zhuǎn)而跟資本密切結(jié)合在一塊。包括研發(fā)人工智能,其背后可能都有著巨大的商業(yè)驅(qū)動。應(yīng)對這一挑戰(zhàn),需要各國談判訂立國際條約,來嚴(yán)格約束研發(fā)。同時,哲學(xué)家需要發(fā)出批判的、超前的設(shè)想。只有這種“危言聳聽”的話不斷地響起,才會推動政治家、科研技術(shù)人員真正意識到問題的嚴(yán)重性,才可能會有一系列的集體應(yīng)對。