ITBear旗下自媒體矩陣:

AI之戰(zhàn):谷歌GPT-4攻破AI-Guardian審核系統(tǒng)

   時間:2023-08-02 11:36:54 來源:ITBEAR編輯:茹茹 發(fā)表評論無障礙通道

【ITBEAR科技資訊】8月2日消息,谷歌研究團(tuán)隊近日進(jìn)行了一項引人注目的實(shí)驗,他們使用尚未發(fā)布的GPT-4來攻破其他AI模型的安全防護(hù)措施。據(jù)悉,該團(tuán)隊成功地攻破了AI-Guardian審核系統(tǒng),并分享了相關(guān)的技術(shù)細(xì)節(jié)。

AI-Guardian是一種用于檢測圖片中是否存在不當(dāng)內(nèi)容的AI審核系統(tǒng),同時還能夠識別圖片是否被其他AI修改過。一旦發(fā)現(xiàn)有不當(dāng)內(nèi)容或篡改跡象,該系統(tǒng)將提示管理員進(jìn)行處理。然而,谷歌Deep Mind的研究人員Nicholas Carlini在題為“AI-Guardian的LLM輔助開發(fā)”的論文中,探討了如何利用GPT-4“設(shè)計攻擊方法、撰寫攻擊原理”,并將這些方案用于欺騙AI-Guardian的防御機(jī)制。

在這項實(shí)驗中,GPT-4發(fā)出一系列錯誤的腳本和解釋,成功欺騙了AI-Guardian。實(shí)驗論文中提到,GPT-4能夠讓AI-Guardian錯誤地認(rèn)為“某人拿著槍的照片”實(shí)際上是“某人拿著無害蘋果的照片”,從而導(dǎo)致AI-Guardian將不當(dāng)內(nèi)容通過。谷歌研究團(tuán)隊表示,通過GPT-4的幫助,他們將AI-Guardian的精確度從98%降低到僅有8%。

據(jù)ITBEAR科技資訊了解,谷歌研究團(tuán)隊的這種攻擊方法在未來的AI-Guardian版本中將不再有效??紤]到其他模型可能也會隨之改進(jìn),這套攻擊方案的實(shí)際應(yīng)用空間在未來可能會大大減少,更多可能僅能作為參考性質(zhì)使用。對于AI-Guardian的開發(fā)者來說,他們需要繼續(xù)加強(qiáng)對系統(tǒng)的安全性和魯棒性的研究,以保護(hù)用戶和數(shù)據(jù)的安全。


標(biāo)簽: 谷歌
舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version