阿里云計(jì)算有限公司近日宣布了一項(xiàng)重要更新,其PAI Model Gallery平臺(tái)現(xiàn)已支持一鍵部署DeepSeek-V3和DeepSeek-R1模型。這一功能的推出,無(wú)疑為開發(fā)者們提供了更加便捷高效的模型部署途徑。
用戶想要體驗(yàn)這一便捷服務(wù),只需簡(jiǎn)單幾步操作。首先,需進(jìn)入Model Gallery頁(yè)面。通過(guò)訪問https://pai.console.aliyun.com/#/quick-start/models鏈接并登錄PAI控制臺(tái),根據(jù)所在區(qū)域選擇相應(yīng)地域,然后在左側(cè)導(dǎo)航欄中找到并點(diǎn)擊進(jìn)入指定的工作空間。在工作空間內(nèi),選擇“快速開始”下的“Model Gallery”選項(xiàng),即可進(jìn)入模型展示頁(yè)面。
在Model Gallery的模型列表中,用戶可以輕松找到DeepSeek系列模型。例如,點(diǎn)擊“DeepSeek-R1-Distill-Qwen-7B”模型卡片,即可進(jìn)入該模型的詳細(xì)信息頁(yè)面。這一頁(yè)面提供了關(guān)于模型的全面介紹,幫助用戶更好地了解模型的特點(diǎn)和應(yīng)用場(chǎng)景。
進(jìn)入模型詳情頁(yè)后,用戶只需點(diǎn)擊右上角的“部署”按鈕,即可開始一鍵部署DeepSeek模型生成服務(wù)。值得注意的是,DeepSeek-R1支持vLLM加速部署,而DeepSeek-V3則更加靈活,不僅支持vLLM加速部署,還提供了Web應(yīng)用部署的選項(xiàng)。對(duì)于DeepSeek-R1的蒸餾小模型,阿里云還提供了BladeLLM(阿里云PAI自研高性能推理框架)和vLLM兩種加速部署方式。用戶只需根據(jù)自己的需求選擇合適的部署方式和資源,即可輕松完成服務(wù)部署,生成一個(gè)PAI-EAS服務(wù)。
部署成功后,用戶可以在服務(wù)頁(yè)面查看調(diào)用的Endpoint和Token信息。為了方便用戶了解服務(wù)調(diào)用方式,阿里云還提供了預(yù)訓(xùn)練模型鏈接,用戶只需點(diǎn)擊即可返回模型介紹頁(yè),查看詳細(xì)的調(diào)用方式說(shuō)明。這一貼心設(shè)計(jì)無(wú)疑大大降低了用戶的使用門檻,提升了開發(fā)效率。
阿里云官方教程中部署的模型為經(jīng)過(guò)蒸餾的DeepSeek-R1-Distill-Qwen-7B。這一模型基于DeepSeek-R1的推理能力,通過(guò)蒸餾技術(shù)將推理模式遷移到了較小的Qwen模型上,從而在保持高性能的同時(shí)降低了資源消耗。當(dāng)然,阿里云PAI Model Gallery也提供了DeepSeek-R1和DeepSeek-V3原始模型的一鍵部署服務(wù),以滿足不同用戶的需求。
近期,DeepSeek系列模型受到了業(yè)界的廣泛關(guān)注。Gitee AI聯(lián)合沐曦首發(fā)了全套DeepSeek R1千問蒸餾模型,并提供了全免費(fèi)體驗(yàn)服務(wù)。同時(shí),秘塔AI也官宣接入了滿血版DeepSeek R1推理模型。DeepSeek-R1大模型還成功登陸騰訊云,宣稱可以實(shí)現(xiàn)“一鍵部署、3分鐘調(diào)用”,進(jìn)一步推動(dòng)了AI模型在各行各業(yè)的廣泛應(yīng)用。