ITBear旗下自媒體矩陣:

李開復(fù):中美大模型差距僅6個月,預(yù)訓(xùn)練絕不言棄!

   時間:2024-10-16 19:52:33 來源:ITBEAR作者:唐云澤編輯:瑞雪 發(fā)表評論無障礙通道

【ITBEAR】在全球大模型領(lǐng)域迎來新一輪激烈競爭之際,零一萬物于近日推出了其最新的旗艦?zāi)P汀猋i-Lightning。這一模型在國際權(quán)威榜單LMSYS上取得了顯著成績,超越了GPT-4o-2024-05-13和Claude 3.5 Sonnet,位列世界第六,成為中國排名第一的大模型。

零一萬物CEO李開復(fù)博士在發(fā)布會上表示,公司的這一成就標(biāo)志著其已晉升為全球大型語言模型(LLM)領(lǐng)域的第三名,僅次于OpenAI和Google。他強調(diào),Yi-Lightning不僅性能卓越,而且成本效益極高,每百萬個token僅需0.14美元,遠低于GPT-4o的4.40美元。

面對外界對于中國大模型公司是否放棄預(yù)訓(xùn)練的質(zhì)疑,李開復(fù)堅決予以否認(rèn)。他指出,零一萬物一直在堅持進行預(yù)訓(xùn)練,并已發(fā)布了多款在全球具有競爭力的預(yù)訓(xùn)練模型。他提到,去年和今年發(fā)布的Yi-34B、Yi-Large、Yi-Coder、Yi-VL和Yi-Vision在發(fā)布時均處于全球領(lǐng)先地位。

關(guān)于模型的商用前景,李開復(fù)表示,零一萬物已推出了一系列面向B/G端客戶的解決方案,包括AI 2.0數(shù)字人解決方案、全行業(yè)解決方案以及AI Infra等。他強調(diào),盡管Yi-Lightning的定價極低,但公司的真實成本更低,因此仍能保持利潤空間。他鼓勵更多的開發(fā)者和企業(yè)客戶使用這一模型,無需擔(dān)心成本問題。

在發(fā)布會上,李開復(fù)還就中美大模型領(lǐng)域的差距發(fā)表了看法。他承認(rèn)中國在該領(lǐng)域確實落后于美國,但認(rèn)為差距并不像一些人所說的那樣巨大。他指出,GPT4o是在2024年5月13日發(fā)布的,而Yi-Lightning在短短幾個月后就超越了它。他認(rèn)為,中美大模型之間的時間差距正在縮短,并有望通過持續(xù)的創(chuàng)新和努力進一步縮小。

李開復(fù)還分享了零一萬物在模型訓(xùn)練和推理方面的創(chuàng)新。他提到,公司采用了混合注意力機制和MoE(混合專家)模型等先進技術(shù),以提高模型的性能和效率。同時,他還強調(diào)了多階段訓(xùn)練的重要性,這使得公司能夠以更低的成本訓(xùn)練出更多不同的模型,并從中學(xué)習(xí)到最優(yōu)的算法。

在回答關(guān)于預(yù)訓(xùn)練模型放棄趨勢的問題時,李開復(fù)表示,做好預(yù)訓(xùn)練模型需要跨學(xué)科的人才和團隊合作。他認(rèn)為,只要公司擁有足夠的人才和決心,以及足夠的融資和芯片支持,就有可能訓(xùn)練出世界排名前十的預(yù)訓(xùn)練通用模型。他同時指出,并非所有公司都能或需要做到這一點,但頭部的幾家大模型公司完全有能力繼續(xù)在這一領(lǐng)域進行投入和創(chuàng)新。

對于OpenAI最新發(fā)布的o1模型及其帶來的技術(shù)變革,李開復(fù)表示贊賞并認(rèn)為這將對整個行業(yè)產(chǎn)生深遠影響。他表示,o1模型將預(yù)訓(xùn)練中的scaling趨勢擴展到了推理階段,這一創(chuàng)新將促使更多中美公司加速在這一方向上的研發(fā)。

在談到零一萬物ToB業(yè)務(wù)的布局時,李開復(fù)強調(diào)了公司提供價值給每一個用戶的重要性。他表示,公司不會僅僅出售模型而不考慮用戶的實際需求和使用效果。相反,零一萬物致力于提供端到端的解決方案,確保用戶能夠從使用其大模型中獲得實際的業(yè)務(wù)增長和競爭力提升。

最后,李開復(fù)就中美大模型時間差的縮短問題發(fā)表了自己的看法。他認(rèn)為,盡管縮短時間差非常困難,但零一萬物通過其獨特的方法論和團隊的努力,已經(jīng)在這一方面取得了顯著的成果。他表示,公司將繼續(xù)關(guān)注OpenAI和其他公司的最新技術(shù)動態(tài),并將其融入自己的產(chǎn)品中,以保持與國際領(lǐng)先水平的競爭力。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version