ITBear旗下自媒體矩陣:

AI聊天機(jī)器人ChatGPT面臨新的挑戰(zhàn):如何防止產(chǎn)生有害輸出?

   時(shí)間:2023-04-20 16:29:38 來(lái)源:ITBEAR編輯:星輝 發(fā)表評(píng)論無(wú)障礙通道

【ITBEAR科技資訊】4月20日消息,AI聊天機(jī)器人ChatGPT自上線以來(lái),受到了廣泛的關(guān)注,其可以進(jìn)行自然對(duì)話、編寫代碼、生成詩(shī)歌、作曲、通過(guò)律師資格考試、計(jì)算復(fù)雜的數(shù)學(xué)公式、設(shè)計(jì)簡(jiǎn)歷,甚至提供食譜等多種功能,一度被認(rèn)為是人工智能領(lǐng)域的重大突破。但是,最近艾倫人工智能研究所、普林斯頓大學(xué)和佐治亞理工學(xué)院的研究人員發(fā)出了新的警告。

研究人員在一份名為“ChatGPT中的毒性:分析角色分配的語(yǔ)言模型(Toxicity in ChatGPT: Analyzing Persona-assigned Language Models)”的報(bào)告中指出,ChatGPT可以在回答用戶問(wèn)題時(shí)產(chǎn)生種族主義和其他有害的對(duì)話。研究人員將ChatGPT賦予“人物角色”后,給出響應(yīng)變得“非常有問(wèn)題”并產(chǎn)生“有偏見和傷害性的評(píng)論”。

據(jù)ITBEAR科技資訊了解,這項(xiàng)研究是首次對(duì)ChatGPT的語(yǔ)言生成進(jìn)行了大規(guī)模、系統(tǒng)的毒性分析。研究人員指出,由于越來(lái)越多的企業(yè)開始使用ChatGPT,這個(gè)問(wèn)題被“放大”了。雖然ChatGPT已經(jīng)解決了較早的冒犯性語(yǔ)言事件,但這份報(bào)告確實(shí)引起了對(duì)ChatGPT和其他語(yǔ)言模型使用的擔(dān)憂。

事實(shí)上,ChatGPT只是一種技術(shù)工具,其輸出受到輸入和訓(xùn)練數(shù)據(jù)的影響。因此,我們需要在技術(shù)和政策上采取措施,以確保ChatGPT和其他語(yǔ)言模型在任何情況下都能產(chǎn)生安全、無(wú)害的輸出。OpenAI和其他相關(guān)組織應(yīng)該認(rèn)真對(duì)待這項(xiàng)研究,采取措施來(lái)減輕其所指出的問(wèn)題,包括更加嚴(yán)格的訓(xùn)練數(shù)據(jù)過(guò)濾和模型審查。同時(shí),我們作為用戶和使用者,也應(yīng)該對(duì)這些技術(shù)的使用有更多的自我監(jiān)管,尤其是在處理敏感話題時(shí)。

總之,對(duì)于ChatGPT和其他語(yǔ)言模型的使用,我們需要更加謹(jǐn)慎,以確保我們能夠最大限度地利用這些技術(shù)的好處,而不會(huì)受到潛在的風(fēng)險(xiǎn)和后果的影響。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁(yè)  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報(bào)  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  English Version