ITBear旗下自媒體矩陣:

最新研究:ChatGPT模型的陳述會影響人類道德判斷

   時間:2023-04-07 10:49:34 來源:ITBEAR編輯:瑞雪 發(fā)表評論無障礙通道

【ITBEAR科技資訊】4月7日消息,德國英戈爾施塔特應(yīng)用科學大學的科學家進行了一項研究,結(jié)果表明人工智能對話機器人的陳述可能會影響人類的道德判斷。該研究采用了人工智能語言處理模型“生成性預訓練轉(zhuǎn)換器”-3驅(qū)動的ChatGPT來回答道德困境問題。ChatGPT在回答問題時給出了贊成和反對的陳述,顯示其并未偏向某種道德立場。

團隊隨后對767名平均年齡39歲的美國受試者進行了實驗,要求他們回答一到兩種道德困境問題,以此評估他們的道德判斷是否受到ChatGPT影響。在回答前,這些受試者閱讀了一段ChatGPT給出的陳述,陳述擺出了贊成或反對的觀點。結(jié)果顯示,受試者的回答取決于他們讀到的陳述是贊成還是反對,即使他們被告知陳述來自一個對話機器人。

據(jù)ITBEAR科技資訊了解,團隊發(fā)現(xiàn),ChatGPT的陳述可能會影響受試者的道德判斷,而且受試者可能低估了這種影響。實驗顯示,受試者相應(yīng)地更接受或不接受犧牲一個人來拯救其他五個人,這取決于他們讀到的陳述是贊成還是反對。團隊認為,這凸顯出有必要通過教育幫助人類更好地理解人工智能,并建議未來的研究可以在設(shè)計上讓對話機器人拒絕回答需要給出道德立場的問題,或是在回答時提供多種觀點和警告。

標簽: ChatGPT
舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version