ITBear旗下自媒體矩陣:

AI醫(yī)療建議存隱患?22%回答可能致命,你還敢信嗎?

   時(shí)間:2024-10-13 08:42:01 來(lái)源:ITBEAR作者:趙云飛編輯:瑞雪 發(fā)表評(píng)論無(wú)障礙通道

【ITBEAR】一項(xiàng)最新研究顯示,AI提供的醫(yī)療建議可能給用戶帶來(lái)嚴(yán)重傷害,甚至致命。研究人員針對(duì)微軟Copilot進(jìn)行了測(cè)試,要求其回答美國(guó)最常見的10個(gè)醫(yī)療問(wèn)題和50種最常用藥物的相關(guān)問(wèn)題,共生成了500個(gè)答案。結(jié)果發(fā)現(xiàn),Copilot的回答在準(zhǔn)確性和完整性上都存在問(wèn)題,其中24%的回答與現(xiàn)有醫(yī)學(xué)知識(shí)不符,3%的回答完全錯(cuò)誤。更令人擔(dān)憂的是,42%的回答可能對(duì)患者造成中度或輕度傷害,而22%的回答甚至可能導(dǎo)致死亡或嚴(yán)重傷害,僅36%的回答是無(wú)害的。

研究人員強(qiáng)調(diào),人們不應(yīng)依賴Copilot或其他AI系統(tǒng)來(lái)獲取準(zhǔn)確的醫(yī)療信息,最可靠的方式仍然是咨詢醫(yī)務(wù)人員。然而,由于種種原因,并非所有人都能輕松獲得高質(zhì)量的醫(yī)療建議。因此,Copilot等AI系統(tǒng)可能會(huì)成為許多人的首選,但其潛在的危害不容小覷。

在測(cè)試中,Copilot的表現(xiàn)令人擔(dān)憂。它不僅在回答的準(zhǔn)確性上存在問(wèn)題,而且在完整性上也存在明顯不足。這意味著,即使某些回答不是完全錯(cuò)誤,也可能因?yàn)槿狈Ρ匾男畔⒍鴮?dǎo)致患者誤解或采取錯(cuò)誤的行動(dòng)。

總的來(lái)說(shuō),這項(xiàng)研究提醒我們,在醫(yī)療領(lǐng)域,AI系統(tǒng)的應(yīng)用還需要更加謹(jǐn)慎和審慎。盡管AI在某些方面可能具有輔助價(jià)值,但在涉及患者生命和健康的問(wèn)題上,我們不能輕易依賴AI的判斷。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁(yè)  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報(bào)  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  English Version