ITBear旗下自媒體矩陣:

00后科研新星周樂鑫論文榮登Nature:大模型真的在降低人類可靠性?

   時間:2024-10-04 07:40:01 來源:ITBEAR作者:蘇婉清編輯:瑞雪 發(fā)表評論無障礙通道

研究指出,像GPT-4這樣的大模型,在某些情況下其回答可靠性甚至不如前一代模型GPT-3。這一發(fā)現(xiàn)引發(fā)了公眾和學術(shù)界的熱烈討論,人們開始重新審視大型語言模型的發(fā)展路徑。

研究還發(fā)現(xiàn),新模型在面對超出其能力范圍的問題時,更傾向于給出錯誤的答案,而不是像早期模型那樣選擇回避。這一變化可能導致用戶在不知情的情況下依賴錯誤的模型輸出。

該研究還探討了人類監(jiān)督在糾正模型錯誤中的作用。然而,結(jié)果顯示,人類監(jiān)督并不能有效解決模型的不可靠性問題。在人類認為困難的操作區(qū)域中,他們經(jīng)常將錯誤的輸出視為正確,這進一步加劇了模型的不可靠性。

為了解決這些問題,論文提出了一些可能的解決方案,包括使用人類難度預期進行更好的訓練或微調(diào)模型,以及教會模型如何規(guī)避超出自身能力范圍的問題。

這一研究為人工智能領(lǐng)域帶來了新的挑戰(zhàn)和思考,如何在模型擴展和提升的過程中確保其可靠性,成為了未來研究的重要方向。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version