ITBear旗下自媒體矩陣:

通義大模型為何成最受歡迎開源模型?揭秘背后原因!

   時間:2024-10-09 03:25:46 來源:ITBEAR作者:唐云澤編輯:瑞雪 發(fā)表評論無障礙通道

【ITBEAR】在開源與閉源之爭持續(xù)發(fā)酵的背景下,開源無疑已成為推動大模型技術(shù)發(fā)展與生態(tài)繁榮的關(guān)鍵力量。大模型,這一曾被視為極度燒錢的技術(shù)領(lǐng)域,如今正因開源的浪潮而發(fā)生深刻變革。

以往,大模型的訓(xùn)練成本高昂,如GPT-3的訓(xùn)練費用據(jù)傳超過4600萬美元,使得大模型技術(shù)主要被資金雄厚的大廠和明星創(chuàng)業(yè)公司所掌握。然而,隨著llama、Mistral、Falcon等開源先鋒的涌現(xiàn),這一格局被徹底打破。如今,缺乏AI積累的企業(yè)、中小團隊乃至個人開發(fā)者,都能基于開源底座模型,以低成本訓(xùn)練并部署專屬模型。

在國內(nèi),受國際開源先鋒的影響,國產(chǎn)開源大模型也經(jīng)歷了快速發(fā)展階段,涌現(xiàn)出如ChatGLM、Baichuan、DeepSeek、Qwen等一系列開源模型。尤為國產(chǎn)開源大模型在短短一年多時間內(nèi),已具備了與國際頂尖開源模型比肩的影響力,通義千問開源模型便是其中的佼佼者。

根據(jù)Hugging Face的數(shù)據(jù),Qwen系列血緣模型數(shù)量已高達5萬多個,這意味著全世界的開發(fā)者基于Qwen系列底座,已經(jīng)二次訓(xùn)練出5萬多個衍生模型,數(shù)量僅次于Llama系列的7萬左右。這一數(shù)據(jù)成為了衡量模型生態(tài)影響力最有說服力的指標。

在2024云棲大會上,通義大模型再推全新開源系列Qwen2.5,其旗艦?zāi)P驼宫F(xiàn)出屠榜式的強勁性能,吸引了海內(nèi)外開發(fā)者和開源社區(qū)的廣泛關(guān)注。通義大模型如何在短短一年多時間內(nèi)實現(xiàn)如此飛躍?這背后離不開其在性能與生態(tài)上的雙重發(fā)力。

Qwen2.5系列在性能上穩(wěn)居全球開源第一,其旗艦?zāi)P蚎wen2.5-72B在多個權(quán)威測評集中全面超越同尺寸開源模型,甚至“跨數(shù)量級”超越Llama3.1-405B模型。這一成就不僅代表了國產(chǎn)開源模型與美國最強開源模型的一次硬剛,也極大地降低了“天花板性能”模型的使用成本。

在生態(tài)建設(shè)方面,通義團隊注重生態(tài)兼容、開發(fā)者服務(wù)以及吸納研究界和開源社區(qū)的創(chuàng)意。他們積極與Hugging Face等開源社區(qū)合作,提升開發(fā)者體驗,并不斷優(yōu)化模型文檔和代碼片段。這些努力使得通義大模型在開源屆成功躋身一流之列,比肩國際最強開源模型Llama。

截至2024年9月初,通義千問開源模型累計下載量已突破4000萬,衍生模型數(shù)量也超過5萬個,成為僅次于Llama的世界級模型群。這些數(shù)據(jù)充分展示了通義作為中國開源大模型的影響力。除了開源模型,通義也提供API服務(wù),已服務(wù)了30多萬客戶,涉及千行百業(yè)。

通義大模型的開源之路,也是中國大模型追趕世界一線水平的縮影。開源的力量再次得到驗證,它不僅推動了新技術(shù)的快速發(fā)展,也為創(chuàng)新提供了無限可能。在未來,隨著大模型技術(shù)的不斷演進和生態(tài)的日益繁榮,我們有理由相信,通義大模型將繼續(xù)在全球開源社區(qū)中發(fā)揮重要作用。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version