最近,美國麻省理工學(xué)院和康奈爾大學(xué)聯(lián)合研究團隊提出了一種利用AI聊天機器人來對抗虛假信息的新方法,試圖打破“陰謀論信仰根深蒂固且無法改變”這一觀念。
研究團隊研究了GPT-4 Turbo等大語言模型(LLMs)是否會利用其強大的信息獲取能力,并通過使用定制的對話反駁,來直接回應(yīng)陰謀論信眾提出的具體證據(jù),從而有效地揭穿陰謀論。
結(jié)果表明,LLMs能夠應(yīng)對大量虛假信息的“攻擊”,并提供大量反證據(jù),相較于人類難以處理的信息洪流,LLMs或許可以無限期針對錯誤信息生成反駁。
此前,據(jù)調(diào)查發(fā)現(xiàn),由AI驅(qū)動的聊天機器人可以將陰謀論信眾(即使是那些最頑固的人)的錯誤信念平均減少20%,且效果至少可以持續(xù)2個月,并在各種不相關(guān)的陰謀論以及不同的人口統(tǒng)計類別中都有效。
該研究論文以“Durably Reducing Conspiracy Beliefs Through Dialogues with AI”為題,并以封面文章的形式發(fā)表在科學(xué)期刊《Science》上。
不過,研究團隊中的Bence Bago等人認為,這一方法可能只適用于經(jīng)過充分論述的陰謀信仰,對于沒有合理依據(jù)的錯誤信仰,AI的有效性可能會有所下降。AI對話干預(yù)措施的可擴展性是一種理想狀態(tài),它不僅能夠適用于陰謀論,還涵蓋偽科學(xué)、健康神話、氣候懷疑主義等領(lǐng)域。然而,這些類型的錯誤信念是否與陰謀論具有相同的糾正難度,仍有待進一步研究。
在《2024年全球風(fēng)險報告》中,世界經(jīng)濟論壇將AI放大虛假信息列為全球最嚴(yán)重風(fēng)險之一。在此情況下,AI的潛在積極影響顯得尤為重要。
那么,AI威脅論的“終結(jié)者”是否是其本身?目前還未有定論。