參考消息網(wǎng)12月5日報道據(jù)德國《法蘭克福匯報》網(wǎng)站12月3日報道,美國開放人工智能公司由埃隆·馬斯克參與創(chuàng)立,專門從事人工智能(AI)開發(fā)。該公司的一項(xiàng)新技術(shù)引發(fā)關(guān)注,它展示了類似人類的能力。這是一款所謂的聊天機(jī)器人。許多感到驚訝的網(wǎng)友在推特等平臺上曬出的大量例子表明,它能以非常令人信服的方式回答許多不同領(lǐng)域的問題。

這個名為Chat GPT的系統(tǒng)可以構(gòu)思簡短的偵探小說并創(chuàng)作狂歡節(jié)口號,還能簡要地解釋經(jīng)濟(jì)學(xué)理論。它還通過了美國高校的入學(xué)資格考試(SAT),成績?yōu)橹械葘W(xué)生水平。
當(dāng)被問及如何消除經(jīng)濟(jì)不平等時,該AI機(jī)器人給出的回答是一項(xiàng)六點(diǎn)計(jì)劃;它還能找出計(jì)算機(jī)編程代碼中的簡單錯誤。為此,它不僅會分析編程代碼的作用,還會猜想人類實(shí)際上想讓計(jì)算機(jī)做什么。

開放人工智能公司發(fā)布這項(xiàng)技術(shù)供大眾使用,并請求用戶提供反饋。該公司首席執(zhí)行官薩姆·奧爾特曼在推特上說,需求大于預(yù)期。
開放人工智能公司近期一直在研究AI文本生成工具。據(jù)稱,與早期版本相比,新系統(tǒng)能夠更好地與用戶對話,也就是非常接近真人之間的對話。
該公司稱,在開發(fā)過程中,“真人AI訓(xùn)練師”會扮演對話雙方并將文本輸入該系統(tǒng)。Chat GPT可以回答追問,承認(rèn)自己的錯誤,指出不正確的前提并拒絕回答“不恰當(dāng)?shù)膯栴}”。
該系統(tǒng)設(shè)置了一些防止濫用的障礙,但這些障礙可以被繞過。比如,用戶可以故意讓該系統(tǒng)給出如何闖入他人住所的建議。
更嚴(yán)重的不足之處在于,該系統(tǒng)給出的答案有時是空話,在某些情況下還是完全錯誤的。
推特上流傳著該系統(tǒng)一次回答的截圖:沒有科學(xué)證據(jù)表明太空服有益于人體健康。
薩姆·奧爾特曼也是開放人工智能公司的聯(lián)合創(chuàng)始人之一。他在推特上說,新系統(tǒng)仍是一個“早期”版本和開發(fā)項(xiàng)目。該公司還在一篇日志中指出了該技術(shù)的局限性,它的回答有時“毫無意義”,有時“過于冗長”。
創(chuàng)立開放人工智能公司的目標(biāo)是開發(fā)有利于人類的AI。該目標(biāo)同樣基于一種思考,即這類技術(shù)也可能給人類造成巨大傷害。埃隆·馬斯克過去曾多次警告這一危險。
開放人工智能公司成立之初屬于非營利組織,但在2019年轉(zhuǎn)變?yōu)橐患覡I利性公司。同年,微軟向該公司投資10億美元。
馬斯克如今已與開放人工智能公司沒有任何關(guān)系。不過,他在推特上對新的聊天機(jī)器人給予了積極評價。