京東數(shù)科AI主播上崗 可用于招聘、客服等多場(chǎng)景
5月28日消息,近日,AI主播亮相京東數(shù)科產(chǎn)業(yè)AI公開課,而這也是京東數(shù)科自主研發(fā)的AI虛擬數(shù)字人產(chǎn)品首次出現(xiàn)在公眾面前。據(jù)介紹,京東數(shù)科融合了2D和3D技術(shù),將傳統(tǒng)方法與深度學(xué)習(xí)結(jié)合,僅需使用一段幾分鐘的人物視頻數(shù)據(jù),經(jīng)過幾小時(shí)訓(xùn)練就可以合成出寫實(shí)風(fēng)格的AI虛擬數(shù)字人。
據(jù)悉,為了順利實(shí)現(xiàn)文字到語(yǔ)音的轉(zhuǎn)化,京東數(shù)科自研了輕量級(jí)對(duì)抗語(yǔ)音合成技術(shù),通過結(jié)合深度神經(jīng)網(wǎng)絡(luò)在多人數(shù)據(jù)上進(jìn)行個(gè)性化建模,達(dá)到音色豐富、特色鮮明的語(yǔ)音合成效果,甚至可以模擬人的呼吸和停頓,聽感酷似真人。高效輕量的對(duì)抗神經(jīng)網(wǎng)絡(luò)大幅提升了合成速度,合成1秒音頻只需0.07秒,合成時(shí)延僅為業(yè)界水平的1/3,充分支持多場(chǎng)景實(shí)時(shí)語(yǔ)音合成。
在語(yǔ)音生成視頻的階段,為了使AI主播形象更加逼真,京東數(shù)科AI實(shí)驗(yàn)室利用對(duì)抗生成網(wǎng)絡(luò)來(lái)還原更真實(shí)的表情,通過3D模型運(yùn)動(dòng)追蹤技術(shù)來(lái)確保AI主播在說話時(shí)口型準(zhǔn)確、表情細(xì)膩、頭部運(yùn)動(dòng)自然。為了在口型匹配方面達(dá)到完美效果,京東數(shù)科AI實(shí)驗(yàn)室利用大量語(yǔ)音數(shù)據(jù),并特意設(shè)計(jì)了魯棒的語(yǔ)音特征,使其可以被不同音色、語(yǔ)言和語(yǔ)速的合成語(yǔ)音所驅(qū)動(dòng),且都能保持準(zhǔn)確、連貫的口型。
最終,京東數(shù)科開發(fā)出了高度還原真人形象的AI虛擬數(shù)字人,在AI算法的驅(qū)動(dòng)下,只需輸入文本內(nèi)容,“小妮”就能根據(jù)語(yǔ)義實(shí)時(shí)進(jìn)行主持,且表情、動(dòng)作和語(yǔ)音表達(dá)非常自然逼真。
京東數(shù)科AI實(shí)驗(yàn)室首席科學(xué)家薄列峰表示:“AI主播小妮的推出,是京東數(shù)科在多模態(tài)AI技術(shù)領(lǐng)域一次成功的落地應(yīng)用。除了在客服、招聘等領(lǐng)域的應(yīng)用之外,我們還將服務(wù)內(nèi)容創(chuàng)造者,通過AI虛擬數(shù)字人技術(shù),把靜態(tài)圖文內(nèi)容轉(zhuǎn)化為由‘真人’講解的短視頻,滿足用戶對(duì)多樣化呈現(xiàn)形式的需求,增強(qiáng)用戶黏性和社區(qū)活躍度?!?/p>