隨著人工智能領(lǐng)域的快速發(fā)展,行業(yè)正步入一個(gè)前所未有的大模型時(shí)代,但與此同時(shí),一場關(guān)于創(chuàng)新與生存的考驗(yàn)也悄然來臨。
近期,被譽(yù)為AI大模型“六小虎”之一的零一萬物,成為了科技界的焦點(diǎn)話題。據(jù)多方報(bào)道,零一萬物已決定調(diào)整戰(zhàn)略方向,不再盲目追求訓(xùn)練超級(jí)大模型。今年1月初,該公司與阿里云攜手成立了“產(chǎn)業(yè)大模型聯(lián)合實(shí)驗(yàn)室”,零一萬物的大部分訓(xùn)練和AI基礎(chǔ)設(shè)施團(tuán)隊(duì)將并入該實(shí)驗(yàn)室。這一舉動(dòng),標(biāo)志著國內(nèi)首家AI大模型獨(dú)角獸公開宣布了戰(zhàn)略的大幅調(diào)整。
這一系列的變化,在2025年初就引起了業(yè)界的廣泛關(guān)注與深思。其中,關(guān)于Scaling Laws(擴(kuò)展定律)的爭議尤為激烈。
零一萬物CEO李開復(fù)在接受媒體采訪時(shí),多次表達(dá)了對(duì)傳統(tǒng)Scaling Laws邊際收益遞減的擔(dān)憂。他指出,僅僅一年多時(shí)間,依靠巨量資源訓(xùn)練超大參數(shù)規(guī)模模型的性價(jià)比已大打折扣,對(duì)于初創(chuàng)公司而言,這顯然不是一個(gè)明智的選擇。李開復(fù)的這一觀點(diǎn),再次引發(fā)了行業(yè)對(duì)于Scaling Laws的廣泛討論。
Scaling Laws最早由OpenAI在一篇論文中提出,簡單來說,就是AI大模型的性能會(huì)隨著模型參數(shù)規(guī)模、訓(xùn)練數(shù)據(jù)量和計(jì)算資源的增加而提升。在過去幾年里,國內(nèi)外大模型平臺(tái)紛紛投入巨資,搶購成千上萬張GPU,以提升計(jì)算能力;模型參數(shù)規(guī)模也從數(shù)億推高到數(shù)千億,甚至上萬億。然而,自去年以來,Scaling Laws的有效性開始受到質(zhì)疑。
據(jù)報(bào)道,OpenAI的下一代模型(代號(hào)Orion)在某些任務(wù)上的改進(jìn)并不顯著,與GPT-3到GPT-4的飛躍相比,提升幅度明顯縮小。盡管OpenAI的CEO對(duì)此予以否認(rèn),但GPT-5的遲遲未推出,還是讓外界產(chǎn)生了諸多猜測。同時(shí),Google的Gemini 2.0和Anthropic的Claude 3.5 Opus也遭遇了類似的困境。
然而,并非所有人都認(rèn)為Scaling Laws已經(jīng)失效。英偉達(dá)CEO黃仁勛在CES 2025上表示,基礎(chǔ)模型預(yù)訓(xùn)練的Scaling Laws仍然有效,并且出現(xiàn)了后訓(xùn)練擴(kuò)展定律和測試時(shí)間擴(kuò)展定律等新的擴(kuò)展定律。其中,“測試時(shí)計(jì)算”為擴(kuò)展模型算力和提高AI性能開辟了新途徑,如OpenAI的o3等新型推理模型,能夠在推理過程中進(jìn)行計(jì)算,通過增加推理計(jì)算量來解鎖新的能力。
盡管存在不同聲音,但行業(yè)普遍認(rèn)為,單純依靠堆算力、堆參數(shù)的粗放發(fā)展模式已經(jīng)難以為繼。李開復(fù)的呼聲,無疑在國內(nèi)捅破了這層窗戶紙。
事實(shí)上,Scaling Laws遭遇瓶頸,更深層次的問題在于高昂成本導(dǎo)致的邊際效益嚴(yán)重遞減。近年來,大模型訓(xùn)練成本的增加有目共睹。據(jù)浙商證券的分析報(bào)告指出,字節(jié)跳動(dòng)2024年在AI領(lǐng)域的資本開支高達(dá)800億元,其中約900億元將專門用于AI算力的采購。而一個(gè)英偉達(dá)Hopper架構(gòu)芯片的價(jià)格就高達(dá)3.3萬至4萬美元,即便是租用GPU,每塊GPU每小時(shí)的租金也需要數(shù)美元,而一個(gè)模型的訓(xùn)練往往需要幾百萬甚至幾千萬個(gè)GPU小時(shí)。
除了訓(xùn)練費(fèi)用高昂外,大模型在提供服務(wù)時(shí)還需要大量消耗其他資源。據(jù)國外某研究機(jī)構(gòu)報(bào)告,ChatGPT每天要響應(yīng)大約2億個(gè)請(qǐng)求,消耗超過50萬度電力。市場推廣同樣是一筆不小的開支,隨著競爭日益激烈,競價(jià)成本也在不斷攀升。
與此同時(shí),國內(nèi)市場的競爭也日益白熱化。某些大模型的API調(diào)用價(jià)格大幅降低,有的降幅甚至高達(dá)97%。如此巨額的投入,顯然不是每個(gè)創(chuàng)業(yè)公司都能承受的。李開復(fù)認(rèn)為,未來只有大廠才有能力做超大模型。
面對(duì)這樣的形勢,“六小虎”們也開始展現(xiàn)出不同的戰(zhàn)略選擇。馬斯克旗下的xAI、OpenAI和Anthropic憑借高額融資在全球AI融資排行榜中斬獲前三,而國內(nèi)六小虎的融資額則相對(duì)較低。去年下半年以來,多家企業(yè)出現(xiàn)資金鏈吃緊的情況。零一萬物選擇放棄對(duì)超大參數(shù)規(guī)模模型的追求,轉(zhuǎn)而專注于更輕量化、性能也不錯(cuò)的模型。據(jù)透露,零一萬物的新旗艦?zāi)P蚘i-Lightning的訓(xùn)練成本僅為GPT-4o的1/30。
同樣地,DeepSeek-V3也憑借降低訓(xùn)練成本和出色的評(píng)測成績,成為開源模型的新王者。該模型每訓(xùn)練1萬億token僅需要18萬個(gè)GPU小時(shí),相比之下,GPT-4o等模型的訓(xùn)練成本高達(dá)1億美元。成本的下降,使得DeepSeek-V3的API調(diào)用價(jià)格更低,吸引了大量開發(fā)者。
其他公司也在探索不同的技術(shù)路線和商業(yè)化路徑。智譜AI加大了對(duì)Agent的投入;階躍星辰在B輪融資后將繼續(xù)投入基礎(chǔ)模型研發(fā);月之暗面和MiniMax在C端市場表現(xiàn)強(qiáng)勁;百川智能則獨(dú)辟蹊徑,將AGI與醫(yī)療結(jié)合。
隨著競爭的加劇,這些創(chuàng)業(yè)公司正面臨著不同的挑戰(zhàn)和機(jī)遇。像新能源汽車領(lǐng)域進(jìn)入淘汰賽一樣,AI大模型領(lǐng)域也正迎來這一關(guān)鍵時(shí)刻。