你相信嗎?AI人工智慧最近已經(jīng)進化到,只要花6秒的時間,聽到你的聲音除可以分辨出你的性別、年紀與種族外,甚至可以描繪出你的長相。
這款由麻省理工學(xué)院(MIT)所打造出來的AI,研究人員用一個由數(shù)百萬個影片剪輯而成的數(shù)據(jù)集,對一個名為Speech2Face的神經(jīng)網(wǎng)絡(luò)模型進行自我訓(xùn)練,而這款網(wǎng)絡(luò)的運作大概分成兩部分,一個是語音編碼器,主要負責(zé)對輸入的語音來進行分析,并預(yù)測出相關(guān)的臉部特征;另一個則是臉部解碼器,主要對輸入的臉部特征來進行整合并產(chǎn)生圖像。從最終結(jié)果來看,僅用了6秒,就能靠著聲音來還原人臉,效果上是令人滿意的。
該研究團隊表示,他們的目的并非為了準確還原說話者的模樣,Speech2Face模型主要是為了研究語音與相貌之間的關(guān)聯(lián)性。目前Speech2Face已經(jīng)可以識別出性別,而對于白種人與亞洲人也能輕易分辨,在年紀部分從30、40、70歲的年齡段聲音命中率會比較高一點。
除了基礎(chǔ)的性別、年紀與種族外,Speech2Face還可以猜中一些臉部特征,像是鼻子結(jié)構(gòu)、嘴唇厚度與形狀、咬合等情況,也可以猜出大概的臉部骨架,基本上聲音輸入的時間越長,這款A(yù)I的準確率就越高;不過研究人員也坦言,AI的聽覺也會有錯,這款A(yù)I會將尚未經(jīng)歷變聲期的小男生當作女性、對說話者的口音也會有判斷錯誤的時候、甚至搞錯年齡等。研究人員表示,Speech2Face之所以會有局限性,部分原因是因為數(shù)據(jù)集中的說話者,本身種族多樣性不夠豐富,所以讓它在辨認不同種族人士聲音這樣的能力上是比較弱的。
不過也有人認為這項技術(shù)背后所隱藏的隱私與歧視等問題,令人擔(dān)憂;他們認為雖然這是純粹的學(xué)術(shù)調(diào)查,但臉部信息的潛在敏感性,是有必要進一步討論當中的道德因素,應(yīng)該要對此進行嚴謹?shù)募夹g(shù)測試,并確保實際數(shù)據(jù)可以代表預(yù)期中的用戶群。