近日,“深度求索”官方公眾號(hào)揭曉了一項(xiàng)重要進(jìn)展,其DeepSeek-V3模型已正式上線并同步開(kāi)放源代碼。用戶(hù)只需訪問(wèn)chat.deepseek.com官網(wǎng),便能與這一最新版本的模型進(jìn)行互動(dòng)。
據(jù)官方介紹,DeepSeek-V3是一個(gè)具備6710億參數(shù)的專(zhuān)家混合(MoE)模型,通過(guò)多個(gè)專(zhuān)家網(wǎng)絡(luò)將問(wèn)題空間精細(xì)劃分為多個(gè)同質(zhì)區(qū)域,有效提升了模型的處理能力。該模型在預(yù)訓(xùn)練階段處理了高達(dá)14.8萬(wàn)億的token,并激活了370億參數(shù)。
DeepSeek-V3在多項(xiàng)評(píng)測(cè)中的表現(xiàn)尤為亮眼,不僅超越了Qwen2.5-72B和Llama-3.1-405B等開(kāi)源模型的性能,還與世界頂尖的閉源模型GPT-4o和Claude-3.5-Sonnet等相媲美。
在知識(shí)、長(zhǎng)文本處理、代碼生成、數(shù)學(xué)計(jì)算以及中文理解等多個(gè)方面,DeepSeek-V3均取得了顯著進(jìn)步。尤其在算法代碼和數(shù)學(xué)問(wèn)題的處理上,其表現(xiàn)尤為突出。DeepSeek-V3的生成速度也大幅提升至60 TPS,相較于V2.5版本,速度提高了3倍。
為了讓更多開(kāi)發(fā)者能夠輕松適配和應(yīng)用DeepSeek-V3,官方不僅開(kāi)源了原生FP8權(quán)重,還提供了BF16轉(zhuǎn)換腳本。目前,SGLang、LMDeploy、TensorRT-LLM和MindIE等多個(gè)平臺(tái)已支持V3模型的推理。
與此同時(shí),DeepSeek還對(duì)API服務(wù)價(jià)格進(jìn)行了調(diào)整。新的定價(jià)策略為:每百萬(wàn)輸入tokens的價(jià)格為0.5元(緩存命中)或2元(緩存未命中),每百萬(wàn)輸出tokens的價(jià)格為8元。為了讓更多用戶(hù)能夠體驗(yàn)到新模型的強(qiáng)大功能,DeepSeek特別設(shè)置了長(zhǎng)達(dá)45天的優(yōu)惠價(jià)格體驗(yàn)期。
從即日起至2025年2月8日,無(wú)論是已注冊(cè)的老用戶(hù)還是在此期間內(nèi)注冊(cè)的新用戶(hù),均可享受DeepSeek-V3 API服務(wù)的優(yōu)惠價(jià)格,即每百萬(wàn)輸入tokens的價(jià)格為0.1元(緩存命中)或1元(緩存未命中),每百萬(wàn)輸出tokens的價(jià)格為2元。