ITBear旗下自媒體矩陣:

AI訓(xùn)練耗電量驚人?未來誰來買單?

   時間:2024-04-08 17:12:56 來源:ITBEAR編輯:瑞雪 發(fā)表評論無障礙通道

【ITBEAR科技資訊】4月8日消息,近日,特斯拉 CEO 馬斯克在一次活動中發(fā)表言論,指出未來可能會面臨電力不足的挑戰(zhàn),尤其是在芯片短缺問題未解決的情況下。他認為,隨著人工智能的發(fā)展,對電力的需求將進一步增加。

有關(guān)AI對電力的巨大需求問題,一直備受關(guān)注。訓(xùn)練和發(fā)展人工智能系統(tǒng)需要大量的算力和電力資源,這對能源供應(yīng)提出了嚴峻挑戰(zhàn)。然而,對于AI的實際電力消耗情況,我們還了解不足。

據(jù)了解,AI技術(shù)的廣泛應(yīng)用已經(jīng)在一些地區(qū)引發(fā)了用電緊張局面。各個領(lǐng)域的研究人員也在努力對AI的能耗進行評估,以便更好地規(guī)劃未來的能源需求。

針對AI模型的電力消耗問題,研究人員進行了一系列的統(tǒng)計和研究。以HuggingFace開源AI平臺為例,研究人員統(tǒng)計了88種不同AI模型在不同任務(wù)下的用電情況。結(jié)果顯示,圖像生成模型每次推斷平均耗電2.907千瓦時,而手機充電僅耗電0.012千瓦時。然而,這些數(shù)據(jù)只是部分模型的情況,并不能代表所有情況。

此外,AI模型的訓(xùn)練階段所需的電力消耗更為可觀。據(jù)估算,像GPT-3這樣的大型模型的訓(xùn)練用電量可達1300兆瓦時,相當于130個美國家庭一年的用電量。

對于AI的能源消耗問題,一些專家提出了解決方案。一方面,一些公司開始研發(fā)訓(xùn)練成本更低的高質(zhì)量模型,以減少算力壓力。另一方面,一些專家呼吁加強對AI能源消耗的監(jiān)管和披露,以便更好地了解和應(yīng)對這一挑戰(zhàn)。

然而,AI對電力的巨大需求問題仍然存在。據(jù)預(yù)測,未來三年,全球?qū)?shù)據(jù)中心、加密貨幣和AI的電力需求將大幅增加,而可再生能源和核能等傳統(tǒng)能源無法滿足這一增長。

在面對這一挑戰(zhàn)的同時,一些專家開始質(zhì)疑AI技術(shù)是否真的必要??紤]到AI的各種限制,一些人認為,我們是否需要讓AI承擔某些特定任務(wù),值得深思。

標簽: ChatGPT
舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version