近日,字節(jié)跳動旗下的豆包大模型團隊對外公布了一項重大技術突破,他們研發(fā)出了一種名為UltraMem的全新稀疏模型架構。這一創(chuàng)新架構旨在解決當前混合專家(MoE)模型在推理過程中面臨的高昂訪存問題,為提升AI模型的推理速度和降低成本提供了新的解決方案。
據(jù)悉,UltraMem架構通過獨特的設計,成功實現(xiàn)了計算與參數(shù)的解耦,從而在保持模型效果的同時,顯著降低了推理時的訪存需求。與傳統(tǒng)的MoE架構相比,UltraMem在推理速度上實現(xiàn)了2至6倍的提升,推理成本最高可降低83%。這一成果不僅彰顯了UltraMem在性能上的優(yōu)勢,更為構建大規(guī)模AI模型開辟了全新的路徑。
實驗數(shù)據(jù)表明,當UltraMem模型的訓練規(guī)模達到2000萬value時,它在同等計算資源下展現(xiàn)出了業(yè)界領先的推理速度和模型性能。這一突破性的表現(xiàn),預示著UltraMem在構建數(shù)十億規(guī)模value或expert的AI模型方面具有巨大的潛力。
UltraMem架構的核心優(yōu)勢在于其高效的內(nèi)存訪問機制。在參數(shù)和激活條件相同的情況下,UltraMem不僅超越了MoE模型在效果上的表現(xiàn),還顯著提升了推理速度。在常見的batch size規(guī)模下,UltraMem的訪存成本幾乎與同計算量的Dense模型相當,這一特點使得UltraMem在實際應用中具有更高的性價比。
在Transformer架構的背景下,模型的性能往往與其參數(shù)數(shù)量和計算復雜度密切相關。然而,隨著大型語言模型(LLM)規(guī)模的不斷擴大,推理成本急劇增加,速度也隨之變慢。MoE架構雖然通過將計算和參數(shù)解耦在一定程度上緩解了這一問題,但在推理時仍面臨較小的batch size激活全部專家導致的訪存急劇上升和推理延遲大幅增加的挑戰(zhàn)。
UltraMem架構的推出,正是針對這一挑戰(zhàn)提出的解決方案。它不僅繼承了MoE架構在計算和參數(shù)解耦方面的優(yōu)勢,還通過優(yōu)化內(nèi)存訪問機制,顯著降低了推理時的訪存成本和延遲。這一創(chuàng)新成果不僅為AI模型的發(fā)展注入了新的活力,也為未來AI技術的應用提供了更加高效、經(jīng)濟的解決方案。