當前位置:首頁 > 智能硬件 > 人工智能AI
[導讀] 卷積神經網絡(CNN)的基礎介紹見 ,這里主要以代碼實現(xiàn)為主。 CNN是一個多層的神經網絡,每層由多個二維平面組成,而每個平面由多個獨立神經元組成。 以MNIST作為數(shù)據庫,仿照

卷積神經網絡(CNN)的基礎介紹見 ,這里主要以代碼實現(xiàn)為主。

CNN是一個多層的神經網絡,每層由多個二維平面組成,而每個平面由多個獨立神經元組成。

以MNIST作為數(shù)據庫,仿照LeNet-5和TIny-cnn( ) 設計一個簡單的7層CNN結構如下:
輸入層Input:神經元數(shù)量32*32=1024;

C1層:卷積窗大小5*5,輸出特征圖數(shù)量6,卷積窗種類6,輸出特征圖大小28*28,可訓練參數(shù)(權值+閾值(偏置))5*5*6+6=150+6,神經元數(shù)量28*28*6=4704;

S2層:卷積窗大小2*2,輸出下采樣圖數(shù)量6,卷積窗種類6,輸出下采樣圖大小14*14,可訓練參數(shù)1*6+6=6+6,神經元數(shù)量14*14*6=1176;

C3層:卷積窗大小5*5,輸出特征圖數(shù)量16,卷積窗種類6*16=96,輸出特征圖大小10*10,可訓練參數(shù)5*5*(6*16)+16=2400+16,神經元數(shù)量10*10*16=1600;

S4層:卷積窗大小2*2,輸出下采樣圖數(shù)量16,卷積窗種類16,輸出下采樣圖大小5*5,可訓練參數(shù)1*16+16=16+16,神經元數(shù)量5*5*16=400;

C5層:卷積窗大小5*5,輸出特征圖數(shù)量120,卷積窗種類16*120=1920,輸出特征圖大小1*1,可訓練參數(shù)5*5*(16*120)+120=48000+120,神經元數(shù)量1*1*120=120;

輸出層Output:卷積窗大小1*1,輸出特征圖數(shù)量10,卷積窗種類120*10=1200,輸出特征圖大小1*1,可訓練參數(shù)1*(120*10)+10=1200+10,神經元數(shù)量1*1*10=10。

下面對實現(xiàn)執(zhí)行過程進行描述說明:

1. 從MNIST數(shù)據庫中分別獲取訓練樣本和測試樣本數(shù)據:

(1)、原有MNIST庫中圖像大小為28*28,這里縮放為32*32,數(shù)據值范圍為[-1,1],擴充值均取-1;總共60000個32*32訓練樣本,10000個32*32測試樣本;

(2)、輸出層有10個輸出節(jié)點,在訓練階段,對應位置的節(jié)點值設為0.8,其它節(jié)點設為-0.8.

2. 初始化權值和閾值(偏置):權值就是卷積圖像,每一個特征圖上的神經元共享相同的權值和閾值,特征圖的數(shù)量等于閾值的個數(shù)

(1)、權值采用uniform rand的方法初始化;

(2)、閾值均初始化為0.

3. 前向傳播:根據權值和閾值,主要計算每層神經元的值

(1)、輸入層:每次輸入一個32*32數(shù)據。

(2)、C1層:分別用每一個5*5的卷積圖像去乘以32*32的圖像,獲得一個28*28的圖像,即對應位置相加再求和,stride長度為1;一共6個5*5的卷積圖像,然后對每一個神經元加上一個閾值,最后再通過tanh激活函數(shù)對每一神經元進行運算得到最終每一個神經元的結果。

(3)、S2層:對C1中6個28*28的特征圖生成6個14*14的下采樣圖,相鄰四個神經元分別進行相加求和,然后乘以一個權值,再求均值即除以4,然后再加上一個閾值,最后再通過tanh激活函數(shù)對每一神經元進行運算得到最終每一個神經元的結果。

(4)、C3層:由S2中的6個14*14下采樣圖生成16個10*10特征圖,對于生成的每一個10*10的特征圖,是由6個5*5的卷積圖像去乘以6個14*14的下采樣圖,然后對應位置相加求和,然后對每一個神經元加上一個閾值,最后再通過tanh激活函數(shù)對每一神經元進行運算得到最終每一個神經元的結果。

(5)、S4層:由C3中16個10*10的特征圖生成16個5*5下采樣圖,相鄰四個神經元分別進行相加求和,然后乘以一個權值,再求均值即除以4,然后再加上一個閾值,最后再通過tanh激活函數(shù)對每一神經元進行運算得到最終每一個神經元的結果。

(6)、C5層:由S4中16個5*5下采樣圖生成120個1*1特征圖,對于生成的每一個1*1的特征圖,是由16個5*5的卷積圖像去乘以16個5*5的下采用圖,然后相加求和,然后對每一個神經元加上一個閾值,最后再通過tanh激活函數(shù)對每一神經元進行運算得到最終每一個神經元的結果。

(7)、輸出層:即全連接層,輸出層中的每一個神經元均是由C5層中的120個神經元乘以相對應的權值,然后相加求和;然后對每一個神經元加上一個閾值,最后再通過tanh激活函數(shù)對每一神經元進行運算得到最終每一個神經元的結果。

4. 反向傳播:主要計算每層神經元、權值和閾值的誤差,以用來更新權值和閾值

(1)、輸出層:計算輸出層神經元誤差;通過mse損失函數(shù)的導數(shù)函數(shù)和tanh激活函數(shù)的導數(shù)函數(shù)來計算輸出層神經元誤差。

(2)、C5層:計算C5層神經元誤差、輸出層權值誤差、輸出層閾值誤差;通過輸出層神經元誤差乘以輸出層權值,求和,結果再乘以C5層神經元的tanh激活函數(shù)的導數(shù),獲得C5層每一個神經元誤差;通過輸出層神經元誤差乘以C5層神經元獲得輸出層權值誤差;輸出層誤差即為輸出層閾值誤差。

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或將催生出更大的獨角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉型技術解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術公司SODA.Auto推出其旗艦產品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關鍵字: 汽車 人工智能 智能驅動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據媒體報道,騰訊和網易近期正在縮減他們對日本游戲市場的投資。

關鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據產業(yè)博覽會開幕式在貴陽舉行,華為董事、質量流程IT總裁陶景文發(fā)表了演講。

關鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據產業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權最終是由生態(tài)的繁榮決定的。

關鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經營業(yè)績穩(wěn)中有升 落實提質增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質量發(fā)展策略,塑強核心競爭優(yōu)勢...

關鍵字: 通信 BSP 電信運營商 數(shù)字經濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術學會聯(lián)合牽頭組建的NVI技術創(chuàng)新聯(lián)盟在BIRTV2024超高清全產業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術創(chuàng)新聯(lián)...

關鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關鍵字: BSP 信息技術
關閉
關閉