當前位置:首頁 > 智能硬件 > 人工智能AI
[導讀] 一、RNN 遞歸神經(jīng)網(wǎng)絡(RNN)被提出用來處理80年代的輸入序列時間信息。1993年,神經(jīng)歷史壓縮器系統(tǒng)解決了“非常深度學習”任務,該任務需要及時展開RNN中的1000多個后續(xù)層。如圖

一、RNN

遞歸神經(jīng)網(wǎng)絡(RNN)被提出用來處理80年代的輸入序列時間信息。1993年,神經(jīng)歷史壓縮器系統(tǒng)解決了“非常深度學習”任務,該任務需要及時展開RNN中的1000多個后續(xù)層。如圖1所示,在傳統(tǒng)的建?;顒樱ɡ缜梆伾窠?jīng)網(wǎng)絡)中,我們顯然會看到固定輸入大小到固定輸出大小的固定網(wǎng)絡。在前饋神經(jīng)網(wǎng)絡的包圍下,我們得到圖1.b以揭示RNN的可區(qū)分性。

RNN能將輸入動態(tài)更改為包含多個輸入向量,每時間段一個,并且每個向量可以有很多列。

對于圖2所示的RNN網(wǎng)絡,假設輸入序列為{x1,x2,…xt},則隱藏層節(jié)點的相應時間向量為H={ h1,h2,…h(huán)t },并且輸出節(jié)點分別對應于Y={ y1,y2…yt },其中xi ,hi,yi(i=1,2…t)是神經(jīng)網(wǎng)絡相應層大的節(jié)點向量。

圖1 前饋神經(jīng)網(wǎng)絡

圖2 遞歸神經(jīng)網(wǎng)絡(RNN)

在普通的前饋神經(jīng)網(wǎng)絡中,前向傳播公式如下:

在前饋神經(jīng)網(wǎng)絡的RNN中,前向傳播公式如下:

其中Wxh制是輸入層和隱藏才能夠之間的權(quán)重矩陣,bh是隱藏層的偏差矢量。Why是隱藏層和輸出層之間的權(quán)重矩陣,by是輸出層的偏差矢量。Whh圖是隱藏層上一時刻與下一時刻之間的權(quán)重矩陣。σ是sigmoid()的激活功能。

由于RNN迭代復用隱藏層,導致RNN可以有效的保留序列的時間信息。如圖1所示,一般的神經(jīng)網(wǎng)絡結(jié)構(gòu)是從輸入層到隱藏層再到輸出層,并且每次的輸出都與之前和之后的輸入無關(guān)。如圖2所示,RNN將在隱藏層中循環(huán)多路復用,因此它可以有效的保存序列的時間信息,并且每次輸出的結(jié)果都受到所有先前輸入的影響。

圖3遞歸神經(jīng)網(wǎng)絡的發(fā)展

圖4 消失梯度問題

在圖3中,擴展了RNN的結(jié)構(gòu)以解釋RNN的隱藏層復用。除第一層外,RNN還將前一次隱藏層的結(jié)果與最新的輸入一起用作當前時間的輸入,從而影響后續(xù)的結(jié)果,同時是達到了保存序列時間信息的目的。

但是眾所周知,RNN存在“消失梯度問題”。如圖4所示,當梯度變得太大或者太小并且難以對輸入數(shù)據(jù)集的結(jié)構(gòu)中的長期依賴關(guān)系(10個時間步或更多)進行建模是就會出現(xiàn)這個問題。

二、 LSTM

為了克服RNN的“消失梯度問題”,Hochreiter和Schmidhuber于1997年提出了具有RNN架構(gòu)的長短期記憶(LSTM)網(wǎng)絡。

如圖5所示,LSTM和其它神經(jīng)網(wǎng)絡模型之間的區(qū)別在于其獨特的LSTM單元。當它與LSTM結(jié)合使用時,在不同時間階段傳播的LSTM的ht參數(shù)傳輸內(nèi)部存儲器狀態(tài)Ct。盡管LSTM單元有很多改進的結(jié)構(gòu),但是它們都沒有將模型的預測準確性進一步提升。 在圖5中,從左到右的四個部分是忘記門,輸入門,單元門和輸出門。

圖5 長短期記憶網(wǎng)絡單元

每個門對應的輸入時ht-1,xt和它們對應的權(quán)重矩陣。 忘記門負責選擇性地忘記存儲在原始單元中的先前狀態(tài),以避免“消失梯度問題”。 輸入門和單元門的結(jié)果相乘并加到先前的單元Ct-1上。最后,為了計算當前的輸出ht ,我們使用了當前的單元門結(jié)果與出出門結(jié)果。使用到的相關(guān)公式如下:

Ft、It、Ct和Ot分別是四個門各自的輸出結(jié)果。W是從相應的輸入到對應的門。例如,Wxy是相應的輸入層到斜門的權(quán)重,并且Whi從上一刻就隱藏了起來。從層到輸入門的權(quán)重bf,bi,bc和bo是四個門的偏置矢量,⊙是兩個矢量或矩陣點乘法。σ和tanh()是常用的激活函數(shù)。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉