【ITBEAR科技資訊】3月21日消息,斯坦福大學(xué)的科學(xué)家們表示,他們使用了OpenAI的GPT API來(lái)微調(diào)meta的LLaMA7B大型語(yǔ)言模型(LLM),并成功地創(chuàng)建了一個(gè)名為Alpaca的復(fù)制品。據(jù)ITBEAR科技資訊了解,他們?cè)诓坏?00美元的成本下,成功地復(fù)制了GPT-3模型,并發(fā)布了自己的代碼和模型,供其他人使用和改進(jìn)。
這個(gè)Alpaca模型比GPT-3小很多,但在某些任務(wù)上表現(xiàn)出色,甚至超過(guò)了GPT-3。然而,它也有一些語(yǔ)言模型的常見(jiàn)缺陷,包括幻覺(jué)、毒性和刻板印象。
斯坦福大學(xué)的研究人員表示,他們?cè)谑褂肙penAI的API上投入了不到500美元,而在LLaMA上的投入不到100美元,這得益于開(kāi)放AI提供的預(yù)訓(xùn)練數(shù)據(jù)集和一些開(kāi)源代碼。他們利用這些資源,在兩個(gè)月的時(shí)間里,成功地復(fù)制了GPT-3模型,證明了這樣的軟件模型是可以容易地復(fù)制的。
GPT-3作為一個(gè)非常昂貴和復(fù)雜的模型,它是由大量的預(yù)訓(xùn)練數(shù)據(jù)和算法組成的,因此它的復(fù)制并不是令人意外的。然而,斯坦福大學(xué)的研究人員通過(guò)創(chuàng)新的方式成功地復(fù)制了GPT-3,并為其他研究人員提供了參考和啟發(fā)。雖然Alpaca模型比GPT-3小,但這個(gè)成功的嘗試為人工智能領(lǐng)域的研究和應(yīng)用提供了更多的可能性。