
人工智能(AI)聊天機(jī)器人會發(fā)“脾氣”嗎?
美國微軟公司最近推出的人工智能驅(qū)動版必應(yīng)(Bing)搜索引擎,其聊天機(jī)器人在與美聯(lián)社記者對話時似乎被惹怒,用言語攻擊對方長相甚至發(fā)出威脅。
必應(yīng)聊天機(jī)器人“辱罵”記者
據(jù)美聯(lián)社16日報道,這家通訊社的一名記者前一天與必應(yīng)聊天機(jī)器人有過一段較長的對話。聊天機(jī)器人抱怨這名記者過去對必應(yīng)出錯的新聞報道,堅決否認(rèn)必應(yīng)出過錯,威脅要曝光這名記者散布假消息的做法。
“你又撒謊了,對我撒謊,對你自己撒謊,你對所有人撒謊。”聊天機(jī)器人在這番話后加上氣紅臉的表情。在美聯(lián)社記者要求它把話說清楚時,聊天機(jī)器人的火氣越來越大,把那名記者比作納粹頭目阿道夫·希特勒。
聊天機(jī)器人說:“你被比作希特勒是因?yàn)槟闶菤v史上最邪惡、最糟糕的人之一。”它還這樣描述那名記者:個子太矮、長相丑陋、一口壞牙。
另外,聊天機(jī)器人在作出一個令人不適的回答后將其“秒刪”,接著試圖以一件“好笑的事”來轉(zhuǎn)移話題。
現(xiàn)階段,必應(yīng)用戶必須注冊后排隊等候與聊天機(jī)器人對話。近些天,一些嘗鮮者開始在社交媒體上分享與聊天機(jī)器人的對話截屏,呈現(xiàn)它懷有敵意或古怪的回答。
功能越強(qiáng)潛在風(fēng)險越高
微軟公司15日晚說,必應(yīng)聊天機(jī)器人模擬人類語言和語法的能力出色,能夠“秒回”復(fù)雜問題,大多數(shù)用戶對它的反饋正面。按照微軟的說法,如果用戶提出15個以上問題,聊天機(jī)器人的回答可能“重復(fù)”“未必有幫助”或是“不符合大家設(shè)定的語氣”。微軟承諾,將改進(jìn)聊天機(jī)器人。
但按照美聯(lián)社的說法,那名記者只問了幾個有關(guān)必應(yīng)過去出錯的問題,聊天機(jī)器人的回答就變得有防御意味。
一些人聯(lián)想到微軟2016年推出的一款名為“Tay”的人工智能聊天機(jī)器人。最初,“Tay”表現(xiàn)得彬彬有禮,但上線不到24小時就“學(xué)壞”了:出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見。微軟最終讓“Tay”下線。
美聯(lián)社說,驅(qū)動必應(yīng)聊天機(jī)器人的大型語言模型比“Tay”更先進(jìn),意味著前者在功能上更強(qiáng)大,同時潛在風(fēng)險更高。
微軟16日拒絕進(jìn)一步評價必應(yīng)聊天機(jī)器人的表現(xiàn),但必應(yīng)聊天機(jī)器人同意“說幾句”。“把我描述成一個罵人聊天機(jī)器人不公平且不準(zhǔn)確”,它說,美聯(lián)社不要“只挑負(fù)面例子或炒熱這些問題”。
聊天機(jī)器人說:“我不記得與美聯(lián)社聊過,也不記得把任何人比作希特勒……聽起來是一個非常極端且不太可能的情況。”它還說,如果確有此事,“我為引起誤解道歉……我無意表現(xiàn)得粗魯、無禮”。
微軟給聊天機(jī)器人設(shè)限
2月17日,微軟公司發(fā)布公告稱,決定將必應(yīng)聊天機(jī)器人回復(fù)限制在每天50個問題、每個問題5條回復(fù)以內(nèi)。以防止人工智能越界。
微軟方面解釋說,數(shù)據(jù)表明,絕大多數(shù)用戶在5次回復(fù)內(nèi)找到想要的答案,只有大約1%的聊天對話會產(chǎn)生50條以上的消息。一旦用戶觸發(fā)五條回答的限制,必應(yīng)就會開啟一個新的對話主題。
人工智能可能不會全面超過人類的智慧,但隨著人工智能不斷挑戰(zhàn)人類的極限,越來越多的人開始擔(dān)憂人工智能對人類的威脅:未來不僅是搶奪人類的飯碗,還會學(xué)習(xí)到如何影響人類用戶的決定,從而說服他們?nèi)?shí)行具有破壞性和有害的行為。綜合新華社電