【ITBEAR科技資訊】6月12日消息,meta日前在GitHub上發(fā)布了一款名為MusicGen的AI語(yǔ)言模型,該模型基于谷歌2017年推出的Transformer模型,主要用于音樂(lè)生成。據(jù)meta的研發(fā)團(tuán)隊(duì)透露,他們經(jīng)過(guò)對(duì)20000小時(shí)的授權(quán)音樂(lè)進(jìn)行訓(xùn)練,并采用了meta的EnCodec編碼器,將音頻數(shù)據(jù)分解為更小的單元進(jìn)行并行處理,以提升MusicGen的運(yùn)算效率和生成速度,使其在同類AI模型中表現(xiàn)出色。
這一開(kāi)源模型支持將文本和旋律結(jié)合輸入,用戶可以提出生成"一首輕快的曲目"并要求將其與貝多芬的《歡樂(lè)頌》相結(jié)合。研發(fā)團(tuán)隊(duì)通過(guò)對(duì)MusicGen的實(shí)際測(cè)試發(fā)現(xiàn),該模型在測(cè)試音樂(lè)與文本提示的匹配度以及作曲的可信度等指標(biāo)上表現(xiàn)優(yōu)秀,總體而言略高于谷歌的MusicLM水平。相較于其他音樂(lè)模型如Riffusion、Mousai和Noise2Music等,MusicGen也展現(xiàn)出更出色的表現(xiàn)。
據(jù)ITBEAR科技資訊了解,meta已授權(quán)該模型供商業(yè)使用,并在Huggingface上發(fā)布了一個(gè)供演示用的網(wǎng)頁(yè)應(yīng)用。這一開(kāi)源舉措將為音樂(lè)生成領(lǐng)域帶來(lái)更多創(chuàng)新和應(yīng)用可能性。MusicGen的推出為音樂(lè)愛(ài)好者和專業(yè)音樂(lè)創(chuàng)作者提供了一個(gè)有趣且實(shí)用的工具,可以幫助他們從文本和旋律中快速生成完整的樂(lè)曲。隨著AI技術(shù)的不斷發(fā)展,人工智能音樂(lè)創(chuàng)作領(lǐng)域?qū)⒂瓉?lái)更多突破和進(jìn)步。