ITBear旗下自媒體矩陣:

高通與Meta達(dá)成合作,驍龍芯片將支持本地運(yùn)行的Llama 2模型

   時(shí)間:2023-07-19 08:38:00 來(lái)源:ITBEAR編輯:茹茹 發(fā)表評(píng)論無(wú)障礙通道

【ITBEAR科技資訊】07月19日消息,meta今天發(fā)布了一則新聞稿,宣布與微軟展開(kāi)合作,共同推出了一款名為L(zhǎng)lama 2的開(kāi)源大預(yù)言模型,旨在協(xié)助開(kāi)發(fā)者構(gòu)建生成式人工智能(AI)應(yīng)用。隨后,高通公司也發(fā)布了一則新聞稿,宣布將與meta合作,使其驍龍芯片能夠在無(wú)需聯(lián)網(wǎng)的情況下運(yùn)行基于Llama 2模型的應(yīng)用和服務(wù)。

據(jù)ITBEAR科技資訊了解,這項(xiàng)合作將使得以Llama 2為代表的生成式AI模型能夠運(yùn)行在智能手機(jī)、個(gè)人電腦、增強(qiáng)/虛擬現(xiàn)實(shí)頭顯設(shè)備以及汽車(chē)等設(shè)備上。這一合作的目標(biāo)在于幫助開(kāi)發(fā)者降低云端運(yùn)行的成本,并為用戶提供私密、更可靠和個(gè)性化的體驗(yàn)。

高通表示,相較于基于云端的Llama語(yǔ)言模型(LLM),在設(shè)備上本地運(yùn)行諸如Llama 2等大型語(yǔ)言模型具備諸多優(yōu)勢(shì)。首先,本地運(yùn)行大型語(yǔ)言模型可以降低成本并提高性能,無(wú)需連接在線服務(wù)。其次,這種方式能夠提供更個(gè)性化、更安全和更私密的AI服務(wù)。

高通計(jì)劃于2024年開(kāi)始在其驍龍芯片上支持基于Llama 2的AI服務(wù)。這一合作為開(kāi)發(fā)者和用戶提供了更多創(chuàng)新的機(jī)會(huì),為智能設(shè)備帶來(lái)了更強(qiáng)大的人工智能能力。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類(lèi)資訊
全站最新
熱門(mén)內(nèi)容
網(wǎng)站首頁(yè)  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報(bào)  |  開(kāi)放轉(zhuǎn)載  |  滾動(dòng)資訊  |  English Version