ITBear旗下自媒體矩陣:

英偉達(dá)用 AI 給紀(jì)錄片配音:情緒節(jié)奏穩(wěn)穩(wěn)拿捏,不說根本聽不出來

   時間:2021-09-01 16:11:13 來源:量子位編輯:星輝 發(fā)表評論無障礙通道

雖然日常和你對話的 Siri 聲音機(jī)械,還常常胡亂斷句,但實際上,最新的技術(shù)進(jìn)展顯示,AI 的語音合成能力已經(jīng)可以說得上是以假亂真。

比如英偉達(dá),最近就發(fā)布了一個更懂節(jié)奏、更具感情的語音合成 AI。

在英偉達(dá)的紀(jì)錄片中,她的自我介紹口齒清晰自不必說,氣息頓挫、情緒把控,播音員范兒絕對夠正。

幀級控制合成語音

英偉達(dá)將在 9 月 3 日的語音技術(shù)頂會 Interspeech 2021 上展示該項目的最新成果。

不過,其背后的技術(shù),此前就已經(jīng)幫助自家數(shù)字人在 SIGGRAPH Real-Time Live 上摘下了最佳展示獎。

核心是名為 RAD-TTS 的語音合成方法。

這是一個并行的端到端 TTS 模型。與此前的并行方法不同,RAD-TTS 將語音節(jié)奏作為一個單獨(dú)的生成分布來建模。如此,在推理過程中,語音的持續(xù)時間就能被更好地控制。

從 RAD-TTS 的演示界面中也可以看出,用戶可以在幀級別上控制合成語音的音調(diào)、持續(xù)時間和節(jié)奏力度。

研究人員還介紹,RAD-TTS 既可以將任意文本轉(zhuǎn)換成說話人的聲音,也可以將一個說話人的聲音(甚至是歌聲)轉(zhuǎn)換成另一個人的聲音。

也就是說,合成語音的制作人可以像指導(dǎo)配音演員一樣去“指導(dǎo)”AI,讓它學(xué)會哪個單詞應(yīng)該重點突出、節(jié)奏如何把控更符合創(chuàng)作基調(diào)等等。

機(jī)器語音能有多真實?

其實,不只是英偉達(dá),此前,小冰也發(fā)布過超級自然語音技術(shù)。

把一句人類的語音混進(jìn)小冰的語音里,你能分辨到底哪一句來自真正的人類嗎?

不過,小冰公司 CEO 李笛此前曾表示,AI 的聲音太接近真人,就很有可能被濫用。因此小冰禁止為普通個人訓(xùn)練聲音。

但這樣的技術(shù),也正在通過電臺、便利店等更多商業(yè)場景,走進(jìn)人們的日常生活。

參考鏈接:

[1] 論文地址:https://openreview.net/forum?id=0NQwnnwAORi

[2]https://blogs.nvidia.com/blog/2021/08/31/conversational-ai-research-speech-synthesis-interspeech/

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開放轉(zhuǎn)載  |  滾動資訊  |  爭議稿件處理  |  English Version