有這樣一個笑話:一個女兒問爸爸為什么在家里說話總是很低聲。“因為到處都有在聽我們說話的人工智能,”爸爸回答說。女兒笑了,父親也笑了。小愛同學也笑了。
人工智能似乎滲透進我們生活的更多方面。隨著AI大腦獲得相當于百萬博士學位的知識,吸收萬億比特的數(shù)據(jù),并以富有吸引力的語氣和舉止生成回應(yīng),聽起來如您最喜歡的老大學教授一般簡單和人性化,一些人不禁要問:計算機是否正在變得有感知能力?
憤世嫉俗者會回答:“當然不是。計算機可能在幾秒鐘內(nèi)解決需要人類幾代才能解決的問題,但它們不能感受愛和痛苦,不能看到和欣賞月亮和星星,不能聞到我們?yōu)R在鍵盤上的咖啡。”
但其他人則建議我們需要更清楚地定義我們已理解為感知能力的內(nèi)容。我們所理解的意識可能有不同程度嗎?人類、動物和智能機器之間的主觀體驗是否有重疊的組成部分?
來自美國、英國、以色列、加拿大、法國和澳大利亞的19名神經(jīng)科學家在8月22日發(fā)表在預(yù)印本服務(wù)器arXiv上的一份報告中探討了這個問題。
OpenAI開發(fā)ChatGPT的一位首席科學家去年推測,先進的AI網(wǎng)絡(luò)可能“略微有意識”。一年前,一名谷歌科學家在宣稱LaMDA(聊天機器人Bard的前身)有感知能力后被解雇。
但是,在對眾多意識理論進行了廣泛分析后,題為“人工智能中的意識:來自意識科學的見解”的報告作者得出結(jié)論,AI系統(tǒng)沒有意識;至少目前還沒有。
然而,他們繪制了未來研究人員值得考慮的途徑。
報告的主要作者Patrick Butlin說:“我們的分析表明,當前沒有AI系統(tǒng)有意識,但也表明,沒有任何技術(shù)障礙可以阻止構(gòu)建滿足這些指標的AI系統(tǒng)。”
他們將意識理論縮小到了他們認為是意識實體的六個令人信服的指標。
一個例子是遞歸處理理論,它指出大腦通過反饋循環(huán)處理信息。通過這樣的循環(huán),大腦可以適應(yīng)變化的環(huán)境,調(diào)整感知,做出更明智的決定。這種迭代行為對記憶形成和獲取新知識至關(guān)重要。
另一個關(guān)鍵概念是高階理論,一些人總結(jié)為“意識到自己在意識”。
Butlin說:“高階理論與其他理論的區(qū)別在于,它們強調(diào),為了使心智狀態(tài)有意識,主體必須意識到自己處于那種心智狀態(tài),以及它們提出解釋這種意識的方式。”
第三個因素是全局工作空間理論。它認為,當信息在大腦中變得全局可訪問時,意識就實現(xiàn)了。信息不局限于個別感覺輸入,而是包含在可用于各種內(nèi)在認知過程的全局中心。
報告提出的檢測感知能力的工具“為評估AI系統(tǒng)是否可能具有意識提供了我們目前可用的最佳方法”,Butlin說。
Butlin說:“我們部分發(fā)表此報告是因為我們認真對待在相對近期內(nèi)構(gòu)建有意識的AI系統(tǒng)的可能性—在未來幾十年內(nèi)。這些前景引發(fā)了深刻的道德和社會問題。”
本文譯自techxplore,由BALI編輯發(fā)布。