谷歌研究團(tuán)隊(duì)正在進(jìn)行一項(xiàng)實(shí)驗(yàn),他們使用OpenAI的GPT-4來攻破其他AI模型的安全防護(hù)措施,該團(tuán)隊(duì)目前已經(jīng)攻破AI-Guardian審核系統(tǒng),并分享了相關(guān)技術(shù)細(xì)節(jié)。

▲圖源谷歌研究團(tuán)隊(duì)
IT之家經(jīng)過查詢得知,AI-Guardian是一種AI審核系統(tǒng),能夠檢測(cè)圖片中是否存在不當(dāng)內(nèi)容,及圖片本身是否被其他AI修改過,若檢測(cè)到圖片存在上述跡象,便會(huì)提示管理員前來處理。
谷歌Deep Mind的研究人員Nicholas Carlini在一篇題為“AI-Guardian的LLM輔助開發(fā)”的論文中,探討了使用GPT-4“設(shè)計(jì)攻擊方法、撰寫攻擊原理”的方案,并將這些方案用于欺騙AI-Guardian的防御機(jī)制。

▲圖源谷歌研究團(tuán)隊(duì)
據(jù)悉,GPT-4會(huì)發(fā)出一系列錯(cuò)誤的腳本和解釋來欺騙AI-Guardian,論文中提到,GPT-4可以讓AI-Guardian認(rèn)為“某人拿著槍的照片”是“某人拿著無害蘋果的照片”,從而讓AI-Guardian直接放行相關(guān)圖片輸入源。谷歌研究團(tuán)隊(duì)表示,通過GPT-4的幫助,他們成功地“破解”了AI-Guardian的防御,使該模型的精確值從98%的降低到僅8%。
目前相關(guān)技術(shù)文檔已經(jīng)發(fā)布在ArXiv中,有興趣的小伙伴們可以前往了解,不過AI-Guardian的開發(fā)者也同時(shí)指出,谷歌研究團(tuán)隊(duì)的這種攻擊方法將在未來的AI-Guardian版本中不再可用,考慮到別的模型也會(huì)隨之跟進(jìn),因此當(dāng)下谷歌的這套攻擊方案更多在日后只能用于參考性質(zhì)。