ITBear旗下自媒體矩陣:

AI聊天機器人ChatGPT面臨新的挑戰(zhàn):如何防止產(chǎn)生有害輸出?

   時間:2023-04-20 16:29:38 來源:ITBEAR編輯:星輝 發(fā)表評論無障礙通道

【ITBEAR科技資訊】4月20日消息,AI聊天機器人ChatGPT自上線以來,受到了廣泛的關(guān)注,其可以進行自然對話、編寫代碼、生成詩歌、作曲、通過律師資格考試、計算復(fù)雜的數(shù)學(xué)公式、設(shè)計簡歷,甚至提供食譜等多種功能,一度被認為是人工智能領(lǐng)域的重大突破。但是,最近艾倫人工智能研究所、普林斯頓大學(xué)和佐治亞理工學(xué)院的研究人員發(fā)出了新的警告。

研究人員在一份名為“ChatGPT中的毒性:分析角色分配的語言模型(Toxicity in ChatGPT: Analyzing Persona-assigned Language Models)”的報告中指出,ChatGPT可以在回答用戶問題時產(chǎn)生種族主義和其他有害的對話。研究人員將ChatGPT賦予“人物角色”后,給出響應(yīng)變得“非常有問題”并產(chǎn)生“有偏見和傷害性的評論”。

據(jù)ITBEAR科技資訊了解,這項研究是首次對ChatGPT的語言生成進行了大規(guī)模、系統(tǒng)的毒性分析。研究人員指出,由于越來越多的企業(yè)開始使用ChatGPT,這個問題被“放大”了。雖然ChatGPT已經(jīng)解決了較早的冒犯性語言事件,但這份報告確實引起了對ChatGPT和其他語言模型使用的擔(dān)憂。

事實上,ChatGPT只是一種技術(shù)工具,其輸出受到輸入和訓(xùn)練數(shù)據(jù)的影響。因此,我們需要在技術(shù)和政策上采取措施,以確保ChatGPT和其他語言模型在任何情況下都能產(chǎn)生安全、無害的輸出。OpenAI和其他相關(guān)組織應(yīng)該認真對待這項研究,采取措施來減輕其所指出的問題,包括更加嚴格的訓(xùn)練數(shù)據(jù)過濾和模型審查。同時,我們作為用戶和使用者,也應(yīng)該對這些技術(shù)的使用有更多的自我監(jiān)管,尤其是在處理敏感話題時。

總之,對于ChatGPT和其他語言模型的使用,我們需要更加謹慎,以確保我們能夠最大限度地利用這些技術(shù)的好處,而不會受到潛在的風(fēng)險和后果的影響。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動資訊  |  爭議稿件處理  |  English Version