【ITBEAR科技資訊】8月24日消息,隨著人工智能技術(shù)的飛速發(fā)展,一種創(chuàng)新的模擬芯片正引領(lǐng)著計算能力的新潮流。近日,《自然》雜志刊登了一份題為“重塑人工智能:基于存內(nèi)計算的模擬芯片”的研究報告,該報告詳細(xì)介紹了由IBM研究實驗室研發(fā)的一款全新人工智能(AI)模擬芯片,預(yù)計將為AI技術(shù)發(fā)展注入新活力。
近年來,隨著人工智能技術(shù)的廣泛應(yīng)用,對計算資源和能源的需求不斷增加,尤其在語音識別領(lǐng)域。雖然軟件優(yōu)化在提高自動轉(zhuǎn)寫準(zhǔn)確率方面取得了顯著進(jìn)展,但龐大的模型參數(shù)要求在存儲器和處理器之間頻繁傳輸數(shù)據(jù),限制了硬件性能的發(fā)揮。為了應(yīng)對這一挑戰(zhàn),研究人員提出了“存內(nèi)計算”(CiM)的概念,即在芯片的存儲器內(nèi)進(jìn)行計算,以減少數(shù)據(jù)傳輸?shù)牡托?,提高計算效率?/p>
據(jù)ITBEAR科技資訊了解,IBM的研究團(tuán)隊成功開發(fā)了一款基于14納米工藝的模擬AI芯片,其內(nèi)部包含3500萬個相變內(nèi)存單元,并可在34個模塊中進(jìn)行操作。該芯片經(jīng)過測試,在兩個不同規(guī)模的語音識別模型上展現(xiàn)出卓越性能。研究人員采用了谷歌的小型網(wǎng)絡(luò)以及Librispeech的大型網(wǎng)絡(luò)進(jìn)行測試,結(jié)果顯示,當(dāng)應(yīng)用于Librispeech模型時,該模擬芯片的計算效率超出預(yù)期,每秒每瓦可達(dá)到12.4萬億次運算,預(yù)計性能最高可達(dá)傳統(tǒng)通用處理器的14倍。
這項突破性研究為存內(nèi)計算技術(shù)在AI領(lǐng)域的性能和效率提供了實證。研究團(tuán)隊指出,這一技術(shù)有望成為數(shù)字系統(tǒng)的商業(yè)可行替代選擇,為人工智能技術(shù)的發(fā)展打開新的局面,同時也為更高效、更環(huán)保的計算方式鋪平了道路??偟膩碚f,IBM的新型模擬AI芯片將為未來的AI應(yīng)用帶來更為廣闊的前景。