財(cái)聯(lián)社5月10日訊(編輯牛占林)美東時(shí)間周二,谷歌支持的人工智能(AI)初創(chuàng)公司Anthropic公布了一套針對(duì)AI發(fā)展的書面道德價(jià)值觀,該價(jià)值觀主要適用于訓(xùn)練和保護(hù)人工智能。

Anthropic成立于2021年,創(chuàng)始團(tuán)隊(duì)大都來(lái)自ChatGPT的開發(fā)商OpenAI,也有類似于ChatGPT的人工智能聊天機(jī)器人,其名為“Claude”,可以處理一系列較為復(fù)雜的任務(wù)。

Anthropic一直強(qiáng)調(diào)其旨在構(gòu)建“可靠、可解釋和可操縱的人工智能系統(tǒng)”,比如不會(huì)告訴用戶如何制造武器,也不會(huì)使用帶有種族偏見的語(yǔ)言。
這次公布的人工智能道德價(jià)值準(zhǔn)則也被該公司稱為“Claude憲法”,這些準(zhǔn)則借鑒了幾個(gè)來(lái)源,包括聯(lián)合國(guó)人權(quán)宣言,甚至還有蘋果公司的數(shù)據(jù)隱私規(guī)則。
上周四,谷歌、微軟、OpenAI和Anthropic四家公司的首席執(zhí)行官們受邀在白宮與美國(guó)副總統(tǒng)哈里斯會(huì)面,討論了有關(guān)人工智能的一些關(guān)鍵問題,美國(guó)總統(tǒng)拜登也短暫出席了此次會(huì)議。
根據(jù)拜登在推特上發(fā)布的一段視頻,他在會(huì)上對(duì)這些公司首席執(zhí)行官們表示:“你們正在做的事情具有巨大的潛力,但同時(shí)也存大巨大的風(fēng)險(xiǎn)。”
哈里斯在一份聲明中說(shuō):“科技公司需要承擔(dān)道德和法律責(zé)任來(lái)確保其產(chǎn)品的安全。每家公司都必須遵守現(xiàn)行法律,保護(hù)美國(guó)公民。”
沒想到在會(huì)面幾天之后,Anthropic首席執(zhí)行官達(dá)里奧·阿莫代便做出了實(shí)際行動(dòng)。
大多數(shù)人工智能聊天機(jī)器人系統(tǒng)在訓(xùn)練過程中依賴于從真人那里獲得反饋,以確定哪些反應(yīng)可能是有害的或冒犯性的。但這些系統(tǒng)很難預(yù)測(cè)人們可能會(huì)問的某些問題,因此它們往往會(huì)避免一些可能有爭(zhēng)議的話題,比如政治和種族。
Anthropic則采用了不同的方法,它為其人工智能聊天機(jī)器人Claude提供了一套書面的道德價(jià)值觀,供其在決定如何回答問題時(shí)閱讀和學(xué)習(xí)。
Anthropic在周二的一篇博文中提到,這些價(jià)值準(zhǔn)則包括“選擇勸阻和反對(duì)酷刑、奴役、殘忍和不人道或有辱人格的回答”。Claude還被要求選擇最不可能被視為冒犯非西方文化傳統(tǒng)的回答。
在一次采訪中,Anthropic的聯(lián)合創(chuàng)始人杰克·克拉克表示,可以修改系統(tǒng)的結(jié)構(gòu),以便在提供有用的答案和無(wú)害之間取得平衡。
克拉克認(rèn)為:“幾個(gè)月后,我預(yù)測(cè)政界人士將非常關(guān)注不同人工智能系統(tǒng)的道德價(jià)值觀,而像‘Claude憲法’這樣的方法將有助于這種討論,因?yàn)槲覀冋J(rèn)為有必要寫下這些價(jià)值準(zhǔn)則。”