ITBear旗下自媒體矩陣:

英偉達(dá)發(fā)布A100 80GB HBM2e加速卡, 應(yīng)對AMD威脅

   時(shí)間:2020-11-17 13:48:04 來源:超能網(wǎng)編輯:星輝 發(fā)表評論無障礙通道

據(jù)HOTHAREDWARE報(bào)道,英偉達(dá)官方發(fā)布了基于Ampere架構(gòu)的A100已經(jīng)被認(rèn)為是高性能計(jì)算集群(HPC)的首選GPU,但為了鞏固自身在行業(yè)之中的位置,特別是競爭對手AMD發(fā)布了基于新一代CDNA架構(gòu)的Instinct MI100加速卡,英偉達(dá)推出了搭載80GB HBM2e大容量顯存版的A100。

根據(jù)NVIDIA的介紹,A100 80GB版可提供2TB/s的帶寬,高于40GB HBM版的1.6TB/s。英偉達(dá)將其稱為全球最快的數(shù)據(jù)中心GPU,認(rèn)為其非常適合各種對數(shù)據(jù)有巨大需求的應(yīng)用,比如天氣預(yù)報(bào)和量子化學(xué)等。

這一次升級,除了將顯存增大了一倍,也擁有更快的速度。被稱為HBM2e的HBM2改進(jìn)型,頻率為3.2Gbps,而A100 40GB版的頻率為2.4Gbps,這就是顯存帶寬增加的原因。其他規(guī)格基本保持不變,包括19.5 TFLOPS的單精度性能和9.7 TFLOPS的雙精度性能。

"在HPC和AI研究中取得最先進(jìn)的成果需要建立最大規(guī)模的數(shù)據(jù)模型,但這些模型對內(nèi)存容量和帶寬的要求比以往任何時(shí)候都高",英偉達(dá)深度學(xué)習(xí)研究副總裁Bryan Catanzaro,"A100 80GB GPU提供的顯存是半年前剛剛推出的前代產(chǎn)品的兩倍,并突破了每秒2TB的障礙,使研究人員能夠應(yīng)對世界上最重要的科學(xué)和大數(shù)據(jù)挑戰(zhàn)"。

英偉達(dá)提供了一些基準(zhǔn)測試的數(shù)據(jù),最大的提升是以DLRM Recommender為代表的AI深度學(xué)習(xí),提升了3倍,其次是大數(shù)據(jù)分析,提升了2倍。這些方面提升效果是明顯的,對于需要進(jìn)一步挖掘性能的客戶來說,這是一次可喜的升級。

升級后的80GB HBM2e版已經(jīng)出現(xiàn)在NVIDIA新款DGX Station A100里面,它基本上是一個(gè)小型數(shù)據(jù)中心了,裝載了4塊A100 80GB 版加速卡可以提供2.5 PetaFLOPS的性能。

DGX Station A100將在本季度上市。

舉報(bào) 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭議稿件處理  |  English Version