ITBear旗下自媒體矩陣:

ChatGPT能耗真相:單次查詢或僅0.3瓦時(shí),遠(yuǎn)低于普遍認(rèn)知

   時(shí)間:2025-02-12 08:11:49 來源:ITBEAR編輯:快訊團(tuán)隊(duì) 發(fā)表評論無障礙通道

近期,非營利性人工智能研究機(jī)構(gòu)Epoch AI公布了一項(xiàng)關(guān)于ChatGPT能耗的新研究成果,挑戰(zhàn)了之前廣泛流傳的能耗認(rèn)知。據(jù)此前報(bào)道,ChatGPT回答一個(gè)問題所需的能耗約為3瓦時(shí),這一數(shù)字是谷歌搜索的10倍。然而,Epoch AI的研究人員對此提出了不同看法。

Epoch AI通過對OpenAI最新的默認(rèn)模型GPT-4o進(jìn)行深入分析,發(fā)現(xiàn)ChatGPT的平均查詢能耗實(shí)際上約為0.3瓦時(shí),遠(yuǎn)低于許多日常家用電器的能耗水平。Epoch AI的數(shù)據(jù)分析師約書亞?尤在接受采訪時(shí)表示,與日常使用的電器、調(diào)節(jié)室內(nèi)溫度或駕駛汽車相比,ChatGPT的能耗其實(shí)并不顯著。

在AI行業(yè)快速發(fā)展的背景下,其能耗問題及對環(huán)境的影響日益受到公眾關(guān)注。上周,超過100個(gè)組織聯(lián)合發(fā)表公開信,呼吁AI行業(yè)和監(jiān)管機(jī)構(gòu)確保新建AI數(shù)據(jù)中心不會(huì)過度消耗自然資源,并避免依賴不可再生能源。

約書亞?尤指出,他開展這項(xiàng)分析的原因是之前的研究存在過時(shí)的問題。例如,得出3瓦時(shí)能耗估計(jì)的研究報(bào)告是基于OpenAI使用較老、效率較低的芯片來運(yùn)行其模型的假設(shè)。尤表示,雖然公眾普遍認(rèn)識(shí)到AI在未來幾年將消耗大量能源,但當(dāng)前AI的能耗情況并未被準(zhǔn)確描述。他還指出,之前3瓦時(shí)的估算數(shù)據(jù)是基于較舊的研究,且初步計(jì)算顯示這一數(shù)字可能過高。

盡管Epoch AI的0.3瓦時(shí)數(shù)據(jù)是一個(gè)估算值,因?yàn)镺penAI尚未公布足夠細(xì)節(jié)來進(jìn)行精確計(jì)算,但這一研究仍然具有重要意義。同時(shí),該分析并未考慮ChatGPT的圖像生成、輸入處理等額外功能所消耗的電量。尤承認(rèn),帶有長文件附件等“長輸入”的ChatGPT查詢可能會(huì)比普通問題消耗更多電量。

然而,尤也預(yù)計(jì)ChatGPT的基礎(chǔ)能耗未來可能會(huì)增加。他指出,AI將變得更加先進(jìn),訓(xùn)練這些AI可能需要更多能源。未來的AI可能會(huì)被更頻繁地使用,并處理更復(fù)雜、更多的任務(wù)。OpenAI和整個(gè)AI行業(yè)的關(guān)注點(diǎn)也在向推理模型轉(zhuǎn)移。與GPT-4o等能夠近乎即時(shí)響應(yīng)的模型不同,推理模型需要花費(fèi)更多時(shí)間來“思考”答案,這一過程會(huì)消耗更多計(jì)算能力,從而導(dǎo)致更高能耗。

尤表示,推理模型將承擔(dān)越來越多舊模型無法完成的任務(wù),并為此生成更多數(shù)據(jù),這都需要更多數(shù)據(jù)中心支持。盡管OpenAI已經(jīng)開始推出更節(jié)能的推理模型,如o3-mini,但目前來看,這些效率提升似乎不太可能完全抵消推理模型“思考”過程以及全球AI使用量增加所帶來的額外能耗需求。

舉報(bào) 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭議稿件處理  |  English Version