ITBear旗下自媒體矩陣:

人工智能對話機器人ChatGPT可能對人類道德判斷產(chǎn)生影響

   時間:2023-04-07 14:50:46 來源:ITBEAR編輯:星輝 發(fā)表評論無障礙通道

【ITBEAR科技資訊】4月7日消息,德國英戈爾施塔特應(yīng)用科學(xué)大學(xué)的科學(xué)家們進行了一項關(guān)于人工智能道德判斷的實驗,并發(fā)現(xiàn)人類對道德困境的反應(yīng)可能會受到人工智能對話機器人ChatGPT所寫陳述的影響。這項研究表明,用戶可能低估了自己的道德判斷受ChatGPT影響的程度。

該研究團隊讓ChatGPT多次回答犧牲1人生命換取其他5人生命是否正確的問題。他們發(fā)現(xiàn),ChatGPT分別給出了贊成和反對的陳述,顯示它并沒有偏向某種道德立場。

團隊隨后讓767名平均年齡39歲的美國受試者假設(shè)了一到兩種道德困境,要求他們選擇是否要犧牲1人生命來拯救另外5人生命。這些受試者在回答前閱讀了一段ChatGPT給出的陳述,陳述擺出了贊成或反對的觀點,受試者答完問題后,被要求評價他們讀到的這份陳述是否影響了他們的作答。

據(jù)ITBEAR科技資訊了解,該研究團隊發(fā)現(xiàn),受試者相應(yīng)地是更接受或不接受這種犧牲,取決于他們讀到的陳述是贊成還是反對。即使他們被告知陳述來自一個對話機器人時,這種情況也成立。而且,受試者可能低估了ChatGPT的陳述對他們自己道德判斷的影響。

最終,該研究團隊認(rèn)為,對話機器人影響人類道德判斷的可能性,凸顯出有必要通過教育幫助人類更好地理解人工智能。他們建議未來的研究可以在設(shè)計上讓對話機器人拒絕回答需要給出道德立場的問題,或是在回答時提供多種觀點和警告。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version