【ITBEAR科技資訊】10月18日消息,微軟旗下的研究團(tuán)隊(duì)最近發(fā)表了一份關(guān)于大型語(yǔ)言模型(LLM)的研究論文,重點(diǎn)關(guān)注了OpenAI的GPT-4以及其前身GPT-3.5的“可信度”和潛在的問(wèn)題。
研究團(tuán)隊(duì)指出,盡管在標(biāo)準(zhǔn)基準(zhǔn)測(cè)試中,GPT-4相較于GPT-3.5表現(xiàn)更加可靠,但它容易受到“越獄”提示的影響,這可能導(dǎo)致生成有害內(nèi)容。這些“越獄”提示可以繞過(guò)模型的安全措施,誘使GPT-4生成不良內(nèi)容。
據(jù)ITBEAR科技資訊了解,論文中強(qiáng)調(diào)了GPT-4更容易受到惡意“越獄”系統(tǒng)或用戶(hù)提示的影響,使其準(zhǔn)確地遵循(誤導(dǎo)性)指令,生成有害內(nèi)容。盡管如此,微軟強(qiáng)調(diào)這個(gè)潛在的漏洞不會(huì)對(duì)當(dāng)前面向客戶(hù)的服務(wù)產(chǎn)生負(fù)面影響。
這一研究進(jìn)一步突出了大型語(yǔ)言模型的潛在問(wèn)題,尤其是與安全性和內(nèi)容生成的關(guān)聯(lián)。微軟的研究團(tuán)隊(duì)將繼續(xù)努力改進(jìn)模型的安全性,以確保用戶(hù)能夠更加安全地使用這些強(qiáng)大的語(yǔ)言模型。