ITBear旗下自媒體矩陣:

GPT-3模型成功復(fù)制!斯坦福大學(xué)研究人員打破先例

   時(shí)間:2023-03-21 14:24:56 來(lái)源:ITBEAR編輯:星輝 發(fā)表評(píng)論無(wú)障礙通道

【ITBEAR科技資訊】3月21日消息,斯坦福大學(xué)的科學(xué)家們表示,他們使用了OpenAI的GPT API來(lái)微調(diào)meta的LLaMA7B大型語(yǔ)言模型(LLM),并成功地創(chuàng)建了一個(gè)名為Alpaca的復(fù)制品。據(jù)ITBEAR科技資訊了解,他們?cè)诓坏?00美元的成本下,成功地復(fù)制了GPT-3模型,并發(fā)布了自己的代碼和模型,供其他人使用和改進(jìn)。

這個(gè)Alpaca模型比GPT-3小很多,但在某些任務(wù)上表現(xiàn)出色,甚至超過(guò)了GPT-3。然而,它也有一些語(yǔ)言模型的常見(jiàn)缺陷,包括幻覺(jué)、毒性和刻板印象。

斯坦福大學(xué)的研究人員表示,他們?cè)谑褂肙penAI的API上投入了不到500美元,而在LLaMA上的投入不到100美元,這得益于開(kāi)放AI提供的預(yù)訓(xùn)練數(shù)據(jù)集和一些開(kāi)源代碼。他們利用這些資源,在兩個(gè)月的時(shí)間里,成功地復(fù)制了GPT-3模型,證明了這樣的軟件模型是可以容易地復(fù)制的。

GPT-3作為一個(gè)非常昂貴和復(fù)雜的模型,它是由大量的預(yù)訓(xùn)練數(shù)據(jù)和算法組成的,因此它的復(fù)制并不是令人意外的。然而,斯坦福大學(xué)的研究人員通過(guò)創(chuàng)新的方式成功地復(fù)制了GPT-3,并為其他研究人員提供了參考和啟發(fā)。雖然Alpaca模型比GPT-3小,但這個(gè)成功的嘗試為人工智能領(lǐng)域的研究和應(yīng)用提供了更多的可能性。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類(lèi)資訊
全站最新
熱門(mén)內(nèi)容
網(wǎng)站首頁(yè)  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開(kāi)放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭(zhēng)議稿件處理  |  English Version