ITBear旗下自媒體矩陣:

Anthropic“憲法分類器”能否有效管住大型語言模型的“嘴”?

   時間:2025-02-05 12:01:56 來源:ITBEAR編輯:快訊團(tuán)隊 發(fā)表評論無障礙通道

近日,人工智能領(lǐng)域迎來了一項新的安全創(chuàng)新。為了應(yīng)對人工智能工具濫用自然語言提示的問題,OpenAI的競爭對手Anthropic推出了一項名為“憲法分類器”的全新概念。這一創(chuàng)新方法旨在將一套類似人類價值觀的規(guī)則(形象地比喻為一部“憲法”)嵌入大型語言模型中。

據(jù)悉,Anthropic的安全保障研究團(tuán)隊在一篇最新的學(xué)術(shù)論文中詳細(xì)闡述了這一安全措施。該措施的主要目標(biāo)是減少其最新、最先進(jìn)的大型語言模型Claude 3.5 Sonnet的“越獄”行為,即生成超出既定安全防護(hù)范圍的輸出內(nèi)容。實(shí)驗(yàn)結(jié)果顯示,在實(shí)施憲法分類器后,Claude模型的越獄成功率顯著降低了81.6%,而該系統(tǒng)對模型性能的影響微乎其微,生產(chǎn)流量拒絕率僅絕對增加了0.38%,推理開銷增加了23.7%。

隨著大型語言模型的應(yīng)用日益廣泛,生成有害內(nèi)容的風(fēng)險也日益凸顯。Anthropic及其同行如OpenAI等,對化學(xué)、生物、放射和核(CBRN)相關(guān)內(nèi)容的風(fēng)險尤為關(guān)注。例如,這些模型可能會提供制造有害化學(xué)制劑的指導(dǎo)。為了驗(yàn)證憲法分類器的有效性,Anthropic發(fā)起了一項挑戰(zhàn),邀請用戶嘗試突破8個與CBRN內(nèi)容相關(guān)的越獄關(guān)卡。然而,這一舉措也引發(fā)了一些爭議,有批評者認(rèn)為這是在利用社區(qū)資源為閉源模型的安全測試做貢獻(xiàn)。

針對這些爭議,Anthropic進(jìn)行了解釋。他們指出,成功的越獄行為是繞過了憲法分類器,而非直接規(guī)避。他們列舉了兩種常見的越獄方法:一種是良性釋義,即通過改變表述方式繞過敏感內(nèi)容;另一種是長度利用,即通過添加無關(guān)細(xì)節(jié)來迷惑模型。同時,Anthropic也承認(rèn),在測試期間,一些提示因誤報或漏報而被錯誤地拒絕,拒絕率較高。

Anthropic進(jìn)一步補(bǔ)充說,盡管已知對沒有憲法分類器的模型有效的越獄方法在這一防御措施下并未成功,但他們?nèi)栽诓粩喔倪M(jìn)和完善這一系統(tǒng)。他們認(rèn)識到,基于規(guī)則的測試系統(tǒng)存在局限性,并致力于提高系統(tǒng)的準(zhǔn)確性和可靠性。這一創(chuàng)新不僅為大型語言模型的安全性提供了新的解決方案,也為人工智能領(lǐng)域的未來發(fā)展開辟了新的方向。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動資訊  |  爭議稿件處理  |  English Version