【ITBEAR】8月14日消息,近期,在2024華為數(shù)據(jù)存儲用戶精英論壇上,一個專注于“AI-Ready的數(shù)據(jù)基礎設施”的分論壇圓滿落幕。該論壇聚焦于如何通過技術創(chuàng)新推動AI大模型的健康發(fā)展。
為了應對這一挑戰(zhàn),華為正式推出了其全新的OceanStor A800 AI存儲解決方案。這款存儲產(chǎn)品據(jù)稱采用了先進的數(shù)控分離架構,能夠提供高達10TB級的帶寬以及億級的IOPS,充分滿足混合負載場景下的高性能需求,并顯著提升集群的可用度。
據(jù)ITBEAR了解,OceanStor A800 AI存儲還配備了ModelEngine技術,這一技術能夠加速數(shù)據(jù)的預處理過程,進而大幅提高AI訓練的整體效率。在推理場景中,該存儲支持RAG向量數(shù)據(jù)庫,并通過KVCache技術為AI大模型賦予了記憶能力,實現(xiàn)了以查代算,全面優(yōu)化了推理體驗和準確度。
華為數(shù)據(jù)存儲產(chǎn)品線閃存存儲領域副總裁嚴浩指出,隨著AI技術的快速發(fā)展,大模型已經(jīng)從單一模態(tài)演進到多模態(tài),并在推理應用中得到了廣泛的應用。然而,企業(yè)在部署和應用AI基礎設施時,仍然面臨著集群可用度低、推理體驗不佳、數(shù)據(jù)管理難度大以及全棧部署復雜等多重挑戰(zhàn)。華為推出的全新OceanStor A800 AI存儲,正是為了解決這些問題而設計的。