ITBear旗下自媒體矩陣:

谷歌超級計算機使用光學(xué)開關(guān)重新配置芯片連接,提升性能

   時間:2023-04-05 09:13:21 來源:ITBEAR編輯:茹茹 發(fā)表評論無障礙通道

【ITBEAR科技資訊】4月5日消息,Alphabet Inc.旗下谷歌公司周二公布了其用于訓(xùn)練人工智能模型的超級計算機的新細節(jié)。該系統(tǒng)使用自主設(shè)計的名為“張量處理單元”(TPU)的芯片,可以用于諸如用人類語言回答問題或生成圖像等任務(wù)。

谷歌的 TPU 現(xiàn)在已經(jīng)是第四代了。據(jù)了解,谷歌的 TPU 現(xiàn)在已經(jīng)是第四代了,谷歌周二發(fā)表了一篇科學(xué)論文,詳細介紹了他們?nèi)绾问褂米约憾ㄖ崎_發(fā)的光學(xué)開關(guān)將 4000 多個芯片串聯(lián)成一臺超級計算機。谷歌表示,其超級計算機可以輕松地實時重新配置芯片之間的連接,有助于避免問題并提高性能。谷歌研究員 Norm Jouppi 和谷歌杰出工程師 David Patterson 在一篇關(guān)于該系統(tǒng)的博文中寫道:“電路切換使我們很容易繞過故障部件。這種靈活性甚至允許我們改變超級計算機互連的拓撲結(jié)構(gòu),以加速 ML(機器學(xué)習(xí))模型的性能?!?nbsp;

為谷歌的 Bard 或 OpenAI 的 ChatGPT 等技術(shù)提供動力的所謂大型語言模型的規(guī)模已經(jīng)爆炸性增長,這意味著它們太大,無法存儲在單個芯片上。這些模型必須被分割到數(shù)以千計的芯片中,然后這些芯片必須協(xié)同工作數(shù)周或更長時間來訓(xùn)練模型。谷歌的 PaLM 模型 —— 迄今為止其公開披露的最大的語言模型 —— 是通過將其分散到 4,000 個芯片的兩臺超級計算機上,歷時 50 天進行訓(xùn)練的。

據(jù)ITBEAR科技資訊了解,谷歌表示,對于同等規(guī)模的系統(tǒng),其超級計算機比基于 Nvidia A100 芯片的系統(tǒng)快 1.7 倍,節(jié)能 1.9 倍。谷歌表示,之所以沒有將其第四代產(chǎn)品與 Nvidia 目前的旗艦產(chǎn)品 H100 芯片進行比較,因為 H100 是在谷歌的芯片之后上市的,而且是用更新的技術(shù)制造的。谷歌暗示他們可能正在開發(fā)一種新的 TPU,與 Nvidia H100 競爭。

標簽: 谷歌
舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容