ITBear旗下自媒體矩陣:

OpenAI 的GPT-4o道德推理超越人類專家,AI倫理判斷獲新突破

   時(shí)間:2024-06-24 10:57:42 來源:ITBEAR編輯:茹茹 發(fā)表評論無障礙通道

【ITBEAR科技資訊】6月24日消息,近期研究顯示,OpenAI的最新聊天機(jī)器人GPT-4o在道德解釋和建議方面展現(xiàn)出了令人矚目的能力,其表現(xiàn)甚至超越了“公認(rèn)的”道德專家。

據(jù)The Decoder于當(dāng)?shù)貢r(shí)間周六的報(bào)道,由美國北卡羅萊納大學(xué)教堂山分校與艾倫AI研究所的科研人員聯(lián)手進(jìn)行的兩項(xiàng)研究,對GPT模型與人類的道德推理能力進(jìn)行了深入的比較分析。這些研究旨在探索大型語言模型是否可以被視為“道德專家”。

在第一項(xiàng)研究中,科研人員邀請了501名美國成年人參與。他們比較了GPT-3.5-turbo模型與其他人類參與者所提供的道德解釋。結(jié)果令人驚訝,人們普遍認(rèn)為GPT給出的解釋在道德層面更為合理、更值得信賴,同時(shí)也顯得更為周到。評估者們甚至認(rèn)為,與其他參與者相比,人工智能的評估更為可靠。盡管差異并不顯著,但這一關(guān)鍵發(fā)現(xiàn)揭示了AI在道德推理方面已達(dá)到甚至可能超越人類水平。

第二項(xiàng)研究則更具挑戰(zhàn)性,科研人員將OpenAI最新的GPT-4o模型所生成的建議與《紐約時(shí)報(bào)》“倫理學(xué)家”專欄中的知名倫理學(xué)家Kwame Anthony Appiah的建議進(jìn)行了對比。共有900名參與者對50個(gè)“倫理困境”中的建議質(zhì)量進(jìn)行了評分。結(jié)果再次令人震驚,GPT-4o在幾乎所有方面都超越了人類專家。人們普遍認(rèn)為,AI生成的建議在道德上更為正確、更值得信賴、更為周到且更為準(zhǔn)確。僅在感知細(xì)微差別方面,人工智能與人類專家之間未表現(xiàn)出顯著差異。

據(jù)ITBEAR科技資訊了解,研究團(tuán)隊(duì)認(rèn)為這些結(jié)果充分表明,AI完全有可能通過“比較道德圖靈測試”(cMTT)。此外,文本分析還顯示,在提供建議時(shí),GPT-4o使用的道德和積極語言明顯多于人類專家,這或許可以部分解釋為何AI的建議能夠獲得更高的評分,當(dāng)然,這并非唯一因素。

然而,這項(xiàng)研究主要針對的是美國參與者。未來,科研人員仍需進(jìn)一步探討人們?nèi)绾慰创鼳I生成的道德推理在不同文化背景下的差異。

舉報(bào) 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動資訊  |  爭議稿件處理  |  English Version