當(dāng)前位置:首頁 > 嵌入式 > 嵌入式動態(tài)
[導(dǎo)讀]新智元導(dǎo)讀:LeCun曾在演講中提到,2016年深度學(xué)習(xí)領(lǐng)域最讓他興奮的技術(shù)莫過于對抗學(xué)習(xí),而無監(jiān)督學(xué)習(xí)一直都是人工智能研究者孜孜追求的“終極目標(biāo)”之一。MIT

新智元導(dǎo)讀:LeCun曾在演講中提到,2016年深度學(xué)習(xí)領(lǐng)域最讓他興奮的技術(shù)莫過于對抗學(xué)習(xí),而無監(jiān)督學(xué)習(xí)一直都是人工智能研究者孜孜追求的“終極目標(biāo)”之一。MIT 計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室的研究員們在本年度的NIPS上提交了結(jié)合對抗學(xué)習(xí)和無監(jiān)督學(xué)習(xí)兩種方法的研究——讓計(jì)算機(jī)在觀看了200萬條視頻后自動“創(chuàng)作”視頻內(nèi)容,結(jié)果非常逼真。研究所開發(fā)的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)也可以直接用到現(xiàn)有的圖片和視頻中,把靜態(tài)圖片變成動態(tài)視頻,并且對人類的動作具有一定的判斷和預(yù)測能力。

MIT 計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室(CSAIL) 的研究員開發(fā)了一個深度學(xué)習(xí)算法,能夠自動生成視頻,并預(yù)測出接下來的視頻內(nèi)容。

研究成果論文將在下周在巴塞羅那舉行的 NIPS ( Conference on Neural Information Processing Systems )上發(fā)表。CSAIL 的研究團(tuán)隊(duì)讓該算法觀看了200萬條視頻,這些視頻加起來如果要回放的話,需要2年的時(shí)間才能播完。

視頻包含了日常生活的常見場景,以讓機(jī)器更好地適應(yīng)正常的人類交流行為。更重要的是,這些視頻是“野生”的,也就是說,它們都是非標(biāo)簽的。簡單地說,就是研究員不會給算法提供理解視頻內(nèi)容的任何線索。

在這一視頻數(shù)據(jù)集的基礎(chǔ)上,算法將基于200萬條視頻中獲得的觀察,嘗試從零開始生成視頻,這和人類創(chuàng)作視頻的步驟是一樣的 。隨后,生成的視頻會被填入另一個深度學(xué)習(xí)算法中,新的算法負(fù)責(zé)判斷哪些視頻是機(jī)器生成的,哪些是“真實(shí)”的。這種訓(xùn)練機(jī)器的方法叫對抗式學(xué)習(xí)(adversarial learning)。

研究使用的神經(jīng)網(wǎng)絡(luò)工作原理

計(jì)算機(jī)視覺研究領(lǐng)域中,許多研究者都在攻克類似的問題,其中就包括MIT的教授 Bill Freeman,他在”視覺動態(tài)“(visual dynamics)領(lǐng)域的工作也能提前創(chuàng)造出視頻中下一幀。但是,他的模型聚焦于推斷性的視頻,Torralba 的視頻能夠生成全新的視頻,這些視頻內(nèi)容此前是從未講過的。

 

圖來自 : Carl Vondrick, MIT CSAIL

此前的系統(tǒng)都是一幀一幀地創(chuàng)建場景,這會帶來巨大的失誤概率,這項(xiàng)研究聚焦于一次處理整個場景,算法每秒生成32幀圖像。”一幀一幀地創(chuàng)建場景,意味著信息是被分成很多塊的“,Vondrick 說,”我們采用同時(shí)預(yù)測所有幀的方法。“

當(dāng)然,一次生成所有的幀也有缺點(diǎn):在變得更精確的同時(shí),長視頻中的計(jì)算機(jī)模型會變得更加復(fù)雜。

為了創(chuàng)建出多幀的效果,研究者教會模型在不受背景的影響下生成前景,然后,把對象放到場景中,讓模型學(xué)習(xí)哪一個物體是移動的,哪一個不動。團(tuán)隊(duì)使用了”對抗學(xué)習(xí)“的方法,在多次嘗試后,生成器學(xué)會如何”欺騙“區(qū)分器(discriminator)。

 

“雙流架構(gòu)”,生成視頻更逼真

”在這一模型的早期原型中,我們的發(fā)現(xiàn)是,生成器(也就是神經(jīng)網(wǎng)絡(luò))會改變背景或者在背景中加入異常的動態(tài)圖片,來嘗試欺騙其他的網(wǎng)絡(luò)“,CSAIL 博士候選人、論文第一作者Carl Vondrick說,”我們需要告訴模型一個概念,那就是現(xiàn)實(shí)世界在大多數(shù)情況下都是靜態(tài)的。“

為了改正這一問題,Vondrick 和他的同事創(chuàng)造了一個“雙流架構(gòu)”(two-stream architecture),這一架構(gòu)會強(qiáng)迫生成的網(wǎng)絡(luò)在前景中的對象移動時(shí),對靜態(tài)的背景進(jìn)行渲染。

這種”雙流架構(gòu)“模型生成許多更加逼真的視頻。算法生成的視頻是64X64分辨率的,包含了32幀(標(biāo)準(zhǔn)的電影是每秒24幀,這意味著算法生成的視頻有1秒~1.5秒),視頻描繪的內(nèi)容包括沙灘、火車站以及新生兒的臉(下圖,這相當(dāng)嚇人)。

 

雖然聽起來從零開始生成幾秒的視頻并沒有多了不起,但是這比起此前的研究已經(jīng)有了顯著的進(jìn)步,此前使用深度學(xué)習(xí)框架,只能生成一個視頻中的幾幀,并且在內(nèi)容上,也會受到更為嚴(yán)格的參數(shù)限制。

讓機(jī)器生成視頻遇到的一個主要難點(diǎn)在于,視頻中的物體是動態(tài)的,特別是人物,常常被渲染成模糊的一團(tuán),雖然研究者都在堅(jiān)持:”我們的模型有潛力生成非常好的動態(tài)場景“。

確實(shí),這種場景是非常值得贊嘆的。研究者向亞馬遜的 Mechanical Turk 的工作人員展示了一段由機(jī)器生成的視頻和原來”真“的視頻,向他們求證哪一段視頻更為真實(shí),結(jié)果,有20%的人選擇了機(jī)器生成的視頻。

 

團(tuán)隊(duì)采用了兩個神經(jīng)網(wǎng)絡(luò),互相對抗,其中一個嘗試欺騙另一個,讓它認(rèn)為自己生成的視頻是”真“的。圖:MIT CSAIL

除了生成原始視頻,這一研究另一個亮眼的成果是能在已有的視頻和照片上進(jìn)行應(yīng)用。當(dāng)研究者把深度學(xué)習(xí)算法應(yīng)用到一個靜態(tài)的幀中,算法就能夠識別出照片中的物體,把它們制作成32幀的動圖,生成”非常合乎常理“的動作。Vondrick說,根據(jù)自己的了解,這是首次實(shí)現(xiàn)讓機(jī)器從靜態(tài)圖片中生成多幀的視頻。

這種預(yù)測對象或人的運(yùn)動的能力對于未來機(jī)器融入現(xiàn)實(shí)世界是至關(guān)重要的,因?yàn)檫@將允許機(jī)器不采取可能傷害人的動作,或者幫助人們不傷害自己。根據(jù)Vondrick的說法,這一研究成果對無人監(jiān)督的機(jī)器學(xué)習(xí)也有促進(jìn)作用,因?yàn)檫@種類型的機(jī)器視覺算法接收的是來自未標(biāo)記視頻的所有輸入數(shù)據(jù)。

如果機(jī)器真的想要善于識別和分類對象,它們將需要能夠在沒有標(biāo)簽數(shù)據(jù)的情況下這樣做。

但是對于Vondrick來說,他的研究中最令人興奮的可能性之一卻跟科學(xué)或現(xiàn)實(shí)世界沒什么關(guān)系。他純粹是想讓機(jī)器創(chuàng)作一段視頻。

”從某種程度上來說,我對讓機(jī)器自己創(chuàng)作一段視頻或者電視節(jié)目非常癡迷“,Vondrick 說,“我們只生成了一秒鐘的視頻,但隨著我們的進(jìn)步,也許可以生成幾分鐘的視頻,講一個連貫的故事。我們現(xiàn)在還做不到,但我認(rèn)為我們邁出了第一步。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉