【ITBEAR科技資訊】6月24日消息,近期研究顯示,OpenAI的最新聊天機(jī)器人GPT-4o在道德解釋和建議方面展現(xiàn)出了令人矚目的能力,其表現(xiàn)甚至超越了“公認(rèn)的”道德專家。
據(jù)The Decoder于當(dāng)?shù)貢r(shí)間周六的報(bào)道,由美國北卡羅萊納大學(xué)教堂山分校與艾倫AI研究所的科研人員聯(lián)手進(jìn)行的兩項(xiàng)研究,對GPT模型與人類的道德推理能力進(jìn)行了深入的比較分析。這些研究旨在探索大型語言模型是否可以被視為“道德專家”。
在第一項(xiàng)研究中,科研人員邀請了501名美國成年人參與。他們比較了GPT-3.5-turbo模型與其他人類參與者所提供的道德解釋。結(jié)果令人驚訝,人們普遍認(rèn)為GPT給出的解釋在道德層面更為合理、更值得信賴,同時(shí)也顯得更為周到。評估者們甚至認(rèn)為,與其他參與者相比,人工智能的評估更為可靠。盡管差異并不顯著,但這一關(guān)鍵發(fā)現(xiàn)揭示了AI在道德推理方面已達(dá)到甚至可能超越人類水平。
第二項(xiàng)研究則更具挑戰(zhàn)性,科研人員將OpenAI最新的GPT-4o模型所生成的建議與《紐約時(shí)報(bào)》“倫理學(xué)家”專欄中的知名倫理學(xué)家Kwame Anthony Appiah的建議進(jìn)行了對比。共有900名參與者對50個(gè)“倫理困境”中的建議質(zhì)量進(jìn)行了評分。結(jié)果再次令人震驚,GPT-4o在幾乎所有方面都超越了人類專家。人們普遍認(rèn)為,AI生成的建議在道德上更為正確、更值得信賴、更為周到且更為準(zhǔn)確。僅在感知細(xì)微差別方面,人工智能與人類專家之間未表現(xiàn)出顯著差異。
據(jù)ITBEAR科技資訊了解,研究團(tuán)隊(duì)認(rèn)為這些結(jié)果充分表明,AI完全有可能通過“比較道德圖靈測試”(cMTT)。此外,文本分析還顯示,在提供建議時(shí),GPT-4o使用的道德和積極語言明顯多于人類專家,這或許可以部分解釋為何AI的建議能夠獲得更高的評分,當(dāng)然,這并非唯一因素。
然而,這項(xiàng)研究主要針對的是美國參與者。未來,科研人員仍需進(jìn)一步探討人們?nèi)绾慰创鼳I生成的道德推理在不同文化背景下的差異。