ITBear旗下自媒體矩陣:

AI醫(yī)療建議靠譜嗎?22%的回答可能致命!

   時間:2024-10-13 12:56:24 來源:ITBEAR作者:馮璃月編輯:瑞雪 發(fā)表評論無障礙通道

【ITBEAR】一項最新研究顯示,人工智能(AI)在提供醫(yī)療建議時存在顯著的安全風(fēng)險。德國和比利時的研究團(tuán)隊針對微軟的Bing Copilot進(jìn)行了專項測試,該AI引擎被設(shè)計為回答美國最常見的十個醫(yī)療問題及五十種常用藥物的相關(guān)信息。

在生成的五百個回答中,研究人員發(fā)現(xiàn),有24%的答案與現(xiàn)有醫(yī)學(xué)知識不符,而3%的回答完全錯誤。尤為嚴(yán)重的是,42%的回答可能給患者帶來中度或輕度的傷害,22%的回答甚至可能導(dǎo)致死亡或嚴(yán)重傷害,僅36%的回答被認(rèn)為安全無害。

研究還揭示,AI答案的平均完整性得分為77%,最低的答案完整性僅為23%。在準(zhǔn)確性方面,26%的AI答案與參考數(shù)據(jù)存在不符,超過3%的回答完全偏離了實際。僅54%的答案與科學(xué)共識相符,而39%的答案與之相悖。

該研究結(jié)果已在《BMJ Quality & Safety》期刊上發(fā)表。研究人員強(qiáng)調(diào),盡管AI技術(shù)展現(xiàn)出一定的潛力,但患者在尋求準(zhǔn)確且安全的醫(yī)療信息時,仍應(yīng)咨詢專業(yè)的醫(yī)療人員。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version