ITBear旗下自媒體矩陣:

最新研究:ChatGPT模型的陳述會(huì)影響人類道德判斷

   時(shí)間:2023-04-07 10:49:34 來(lái)源:ITBEAR編輯:快訊團(tuán)隊(duì) 發(fā)表評(píng)論無(wú)障礙通道

【ITBEAR科技資訊】4月7日消息,德國(guó)英戈?duì)柺┧貞?yīng)用科學(xué)大學(xué)的科學(xué)家進(jìn)行了一項(xiàng)研究,結(jié)果表明人工智能對(duì)話機(jī)器人的陳述可能會(huì)影響人類的道德判斷。該研究采用了人工智能語(yǔ)言處理模型“生成性預(yù)訓(xùn)練轉(zhuǎn)換器”-3驅(qū)動(dòng)的ChatGPT來(lái)回答道德困境問(wèn)題。ChatGPT在回答問(wèn)題時(shí)給出了贊成和反對(duì)的陳述,顯示其并未偏向某種道德立場(chǎng)。

團(tuán)隊(duì)隨后對(duì)767名平均年齡39歲的美國(guó)受試者進(jìn)行了實(shí)驗(yàn),要求他們回答一到兩種道德困境問(wèn)題,以此評(píng)估他們的道德判斷是否受到ChatGPT影響。在回答前,這些受試者閱讀了一段ChatGPT給出的陳述,陳述擺出了贊成或反對(duì)的觀點(diǎn)。結(jié)果顯示,受試者的回答取決于他們讀到的陳述是贊成還是反對(duì),即使他們被告知陳述來(lái)自一個(gè)對(duì)話機(jī)器人。

據(jù)ITBEAR科技資訊了解,團(tuán)隊(duì)發(fā)現(xiàn),ChatGPT的陳述可能會(huì)影響受試者的道德判斷,而且受試者可能低估了這種影響。實(shí)驗(yàn)顯示,受試者相應(yīng)地更接受或不接受犧牲一個(gè)人來(lái)拯救其他五個(gè)人,這取決于他們讀到的陳述是贊成還是反對(duì)。團(tuán)隊(duì)認(rèn)為,這凸顯出有必要通過(guò)教育幫助人類更好地理解人工智能,并建議未來(lái)的研究可以在設(shè)計(jì)上讓對(duì)話機(jī)器人拒絕回答需要給出道德立場(chǎng)的問(wèn)題,或是在回答時(shí)提供多種觀點(diǎn)和警告。

標(biāo)簽: ChatGPT
舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁(yè)  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭(zhēng)議稿件處理  |  English Version