OpenAI宣布正在組建一個新團隊,由其聯(lián)合創(chuàng)始人兼首席科學(xué)家Ilya Sutskever和Alignment負責(zé)人Jan Leike共同領(lǐng)導(dǎo),以尋找引導(dǎo)和控制下一代“超智能人工智能系統(tǒng)”的方法。

據(jù)悉,該團隊目前具備最高優(yōu)先級,有權(quán)使用公司20%的計算資源,目標是在未來四年內(nèi)解決“控制超智能AI”的核心技術(shù)挑戰(zhàn)。團隊聲稱,他們需要時間來進行“科學(xué)和技術(shù)”方面的突破,以引導(dǎo)和控制比人類聰明得多的AI系統(tǒng)。
研究者Sutskever和Leike認為,“下一代超智能AI”可能將在十年內(nèi)誕生,這將是人類迄今為止發(fā)明的最具影響力的技術(shù),可以幫助人類解決許多原先需要大量人力資源才能解決的問題。但研究者同時認為,該技術(shù)也有反噬人類的可能,其巨大的力量可能導(dǎo)致人類喪失主權(quán)甚至滅絕。
團隊表示,在“確保比人類更聰明的AI系統(tǒng)遵循人類的意圖”方面,他們當下還沒有一個合理的解決方案來引導(dǎo)或控制潛在的超智能AI,當下人類只能通過反饋來令A(yù)I調(diào)整生成過程,但人類無法可靠地從根源監(jiān)督AI系統(tǒng)。
OpenAI計劃構(gòu)建一個大致達到人類水平的AI“automated alignment researcher”,然后使用大量深度學(xué)習(xí)來擴展AI能力,并迭代地調(diào)整該超級智能。
為此,研究人員需要開發(fā)可擴展的訓(xùn)練方法,接著驗證生成的模型,并最終對模型進行一系列可控性測試。
IT之家發(fā)現(xiàn),研究人員當下正計劃利用該AI系統(tǒng)來協(xié)助評估其它AI系統(tǒng)(可擴展的監(jiān)督),同時還希望了解和控制他們的模型是如何將監(jiān)督推廣到人類研究員無法監(jiān)督的任務(wù)上。
Sutskever和Leike表示,隨著研究的深入,預(yù)計其將來的研究重點也可能出現(xiàn)發(fā)生變化,甚至可能還會有新的研究領(lǐng)域隨之出現(xiàn)。
目前,這一新團隊還在對外招募機器學(xué)習(xí)研究人員和工程師。Sutskever和Leike認為,招募更多的機器學(xué)習(xí)專家對于解決下一代超智能AI的問題至關(guān)重要。他們計劃廣泛分享團隊的研究成果,并將促進業(yè)界共同進步。
這個新團隊的工作是對OpenAI現(xiàn)有工作的補充,旨在提高ChatGPT等當前模型的安全性,以及理解和減輕人工智能帶來的其他風(fēng)險,例如濫用、經(jīng)濟破壞、虛假信息、偏見和歧視、成癮和過度依賴等問題。雖然新團隊將專注于將超智能AI系統(tǒng)與人類意圖結(jié)合起來的機器學(xué)習(xí)挑戰(zhàn),但我們正在積極與跨學(xué)科專家合作解決相關(guān)的社會技術(shù)問題,以確保我們的技術(shù)解決方案考慮到更廣泛的人類和社會問題。