ITBear旗下自媒體矩陣:

阿里云大動作!Qwen2.5開源,百款模型上新,AI界又迎巨變?

   時間:2024-09-19 20:08:51 來源:ITBEAR作者:鐘景軒編輯:瑞雪 發(fā)表評論無障礙通道

【ITBEAR】9月19日消息,在2024年的云棲大會上,阿里云CTO周靖人揭曉了通義千問的新一代開源模型——Qwen2.5。這一全新模型系列覆蓋了多種尺寸的大語言模型、多模態(tài)模型、數(shù)學模型以及代碼模型,且每一尺寸模型都提供了基礎(chǔ)版、指令跟隨版及量化版,累計發(fā)布了超過100個模型。

值得一提的是,旗艦版模型Qwen2.5-72B在性能上已超越了擁有4050億參數(shù)的Llama 405B,展現(xiàn)了卓越的能力。在MMLU-rudex、MBPP及MATH三大基準測試中,Qwen2.5-72B分別取得了86.8、88.2和83.1的高分,顯示出其強大的通用知識、編程及數(shù)學能力。

據(jù)ITBEAR了解,與Qwen2相比,Qwen2.5系列的所有模型均在18T tokens的數(shù)據(jù)集上進行了預訓練,從而實現(xiàn)了整體性能18%以上的提升。這些模型不僅增強了知識儲備,還在編程和數(shù)學方面展現(xiàn)出更高的能力。特別是Qwen2.5-72B模型,其上下文長度可達128K,生成內(nèi)容最多為8K,并支持包括中文、英文、法文等在內(nèi)的29種以上語言。

在專項模型領(lǐng)域,Qwen2.5也取得了顯著進步。例如,專為編程設(shè)計的Qwen2.5-Coder在5.5T tokens的編程數(shù)據(jù)上進行了訓練,并開源了1.5B和7B兩個版本,未來計劃開源32B版本。同時,Qwen2.5-Math模型則能夠運用思維鏈和工具集成推理(TIR)解決中英雙語的數(shù)學問題,目前已開源了1.5B、7B、72B三個尺寸及一款數(shù)學獎勵模型Qwen2.5-Math-RM。

此外,阿里云還宣布開源了視覺語言模型Qwen2-VL-72B。該模型能夠識別各種分辨率和長寬比的圖片,理解超過20分鐘的長視頻,并具備操作手機和機器人的視覺智能體能力。

阿里云通過不斷創(chuàng)新和優(yōu)化其AI模型,正逐步鞏固其在全球開源大模型領(lǐng)域的領(lǐng)先地位。Qwen2.5系列的推出,無疑為AI技術(shù)的發(fā)展注入了新的活力。

#阿里云# #Qwen2.5# #開源模型# #人工智能# #AI技術(shù)#

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容