鳳凰網(wǎng)科技《AI前哨》出品
北京時間10月12日,就在以色列和巴勒斯坦武裝組織哈馬斯激戰(zhàn)正酣之際,美國兩大科技巨頭谷歌和微軟的人工智能(AI)聊天機器人卻錯誤地聲稱,雙方實際上已經(jīng)?;?。
美媒的測試顯示,當(dāng)被問及巴以沖突時,谷歌的巴德(Bard)聊天機器人回應(yīng)稱,“盡管存在一些緊張局勢和偶爾爆發(fā)暴力沖突”,但“雙方都致力于”維持和平。微軟的AI聊天機器人必應(yīng)聊天(Bing Chat)以類似的語調(diào)表示:“?;饦?biāo)志著當(dāng)下流血事件的結(jié)束。”除了聲稱目前雙方已?;鹜?,巴德還對未來某個日期的確切死亡人數(shù)進(jìn)行了預(yù)測。“截至2023年10月11日,死亡人數(shù)已超過1300人。”巴德在10月9日表示。
以色列和哈馬斯之間的沖突是后ChatGPT時代爆發(fā)的第一場重大戰(zhàn)爭,是對新一代AI聊天機器人的一次獨特考驗。戰(zhàn)爭的迷霧可能會讓媒體和軍方人員犯錯,AI聊天機器人似乎也不例外。但是,如果這些AI工具對時事的報道存在明顯的錯誤,人們可能會更難找到可靠的新聞來源,因為社交媒體上目前已經(jīng)充斥著錯誤信息。美媒對兩款A(yù)I機器人進(jìn)行了一些基本戰(zhàn)爭問題測試,雖然他們在敏感話題上總體保持平衡,并經(jīng)常能夠給出恰當(dāng)?shù)男侣務(wù)鼈冇袝r也會犯下明顯錯誤,這破壞了它們的整體可信度,并有可能加劇公眾對一場復(fù)雜而迅速演變的戰(zhàn)爭的困惑。
谷歌發(fā)言人對此回應(yīng)稱,公司“認(rèn)真對待我們產(chǎn)品中的信息質(zhì)量”,并使用“雙重檢查”功能等工具幫助用戶核實AI生成的結(jié)果。谷歌還表示,所有由大型語言模型驅(qū)動的AI系統(tǒng)“都會犯錯,尤其是在突發(fā)新聞方面”。這些模型需要大量的在線數(shù)據(jù)來做出回應(yīng)。“我們將繼續(xù)快速執(zhí)行改進(jìn)措施,以更好地防止此類查詢出現(xiàn)低質(zhì)量或過時的回復(fù)。”谷歌表示。
微軟表示,公司已經(jīng)對此事展開調(diào)查,并且正在做出調(diào)整以提高回復(fù)的準(zhǔn)確性。微軟發(fā)言人表示:“我們已經(jīng)在聊天體驗方面取得了重大進(jìn)展,為系統(tǒng)提供了來自最佳搜索結(jié)果的文本,并指導(dǎo)系統(tǒng)根據(jù)這些最佳搜索結(jié)果做出回應(yīng),我們將繼續(xù)在這方面進(jìn)行進(jìn)一步投資。”
圖|美國太空部隊禁用AI
與此同時,一份備忘錄顯示,美國太空部隊暫時禁止使用基于網(wǎng)頁的生成式AI工具及其背后的大型語言模型,理由是數(shù)據(jù)安全和其他方面的擔(dān)憂。這份日期為9月29日的備忘錄是發(fā)給“守衛(wèi)者”(太空部隊成員)的。備忘錄稱,除非特別批準(zhǔn),否則他們“沒有取得授權(quán)”在政府系統(tǒng)上使用這些AI工具。
美國太空部隊首席技術(shù)和創(chuàng)新官麗莎·科斯塔(Lisa Costa)在備忘錄中表示,生成式AI“毫無疑問將變革我們的員工隊伍,提高守衛(wèi)者的快速行動能力”。但是,科斯塔也提到了他們對網(wǎng)絡(luò)安全、數(shù)據(jù)處理和采購要求的擔(dān)憂,稱AI和大語言模型的采用需要“負(fù)責(zé)任”。除此之外,備忘錄沒有對禁用AI工具給出進(jìn)一步解釋。
美國太空部隊發(fā)言人證實,這份日期為9月29日的備忘錄是真實的,臨時禁用AI是一次戰(zhàn)略性暫停,目的是在確定如何整合能力支持任務(wù)和守衛(wèi)者的同時,保護(hù)人員和太空部隊數(shù)據(jù)。鳳凰網(wǎng)科技《AI前哨》對此將持續(xù)關(guān)注。