ITBear旗下自媒體矩陣:

阿里云通義千問系列 AI 開源模型升至 Qwen2:五種尺寸,最高支持128K tokens

   時間:2024-06-07 14:21:42 來源:ITBEAR編輯:茹茹 發(fā)表評論無障礙通道

【ITBEAR科技資訊】6月7日消息,通義千問(Qwen)今日公布了一項重大升級,即Qwen系列模型已從Qwen1.5版本成功躍升至Qwen2版本,并在Hugging Face和ModelScope平臺上同步開源。

據(jù)悉,Qwen2.0帶來了諸多創(chuàng)新和改進。該版本推出了5種不同尺寸的預訓練和指令微調(diào)模型,覆蓋從0.5B到72B的廣泛范圍,以滿足不同場景和需求。其次,在原有的中英文基礎(chǔ)上,Qwen2.0新增了27種語言的高質(zhì)量訓練數(shù)據(jù),進一步提升了模型的多語言處理能力。

據(jù)ITBEAR科技資訊了解,Qwen2.0還在多個評測基準上展現(xiàn)出領(lǐng)先性能。其代碼理解和數(shù)學計算能力得到了顯著提升,這對于開發(fā)人員和科研工作者來說無疑是一個好消息。此外,Qwen2-72B模型更是支持高達128K tokens的上下文長度,為處理更復雜、更長的文本提供了可能。

在模型基礎(chǔ)信息方面,Qwen2系列的所有模型都采用了GQA技術(shù),這項技術(shù)能夠帶來推理加速和降低顯存占用的優(yōu)勢。在之前的Qwen1.5系列中,僅有32B和110B的模型使用了這項技術(shù),而現(xiàn)在在Qwen2.0中,所有尺寸的模型都得以應(yīng)用。

在模型評測中,Qwen2-72B表現(xiàn)尤為出色。與當前最優(yōu)的開源模型相比,Qwen2-72B在自然語言理解、知識、代碼、數(shù)學以及多語言等多項能力上都實現(xiàn)了顯著超越,包括Llama-3-70B和Qwen自身的前一版本Qwen1.5-110B。這一飛躍性的進步無疑將推動AI技術(shù)的更廣泛應(yīng)用和發(fā)展。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version