當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 上一次我們用了單隱層的神經(jīng)網(wǎng)絡(luò),效果還可以改善,這一次就使用CNN。 卷積神經(jīng)網(wǎng)絡(luò) 上圖演示了卷積操作 LeNet-5式的卷積神經(jīng)網(wǎng)絡(luò),是計算機視覺領(lǐng)域近期取得

上一次我們用了單隱層的神經(jīng)網(wǎng)絡(luò),效果還可以改善,這一次就使用CNN。

卷積神經(jīng)網(wǎng)絡(luò)

上圖演示了卷積操作

LeNet-5式的卷積神經(jīng)網(wǎng)絡(luò),是計算機視覺領(lǐng)域近期取得的巨大突破的核心。卷積層和之前的全連接層不同,采用了一些技巧來避免過多的參數(shù)個數(shù),但保持了模型的描述能力。這些技巧是:
1, 局部聯(lián)結(jié):神經(jīng)元僅僅聯(lián)結(jié)前一層神經(jīng)元的一小部分。
2, 權(quán)重共享:在卷積層,神經(jīng)元子集之間的權(quán)重是共享的。(這些神經(jīng)元的形式被稱為特征圖[feature map])
3, 池化:對輸入進行靜態(tài)的子采樣。

局部性和權(quán)重共享的圖示

卷積層的單元實際上連接了前一層神經(jīng)元中的一個2維patch,這個前提讓網(wǎng)絡(luò)利用了輸入中的2維結(jié)構(gòu)。

當(dāng)使用Lasagne中的卷積層時,我們必須進行一些輸入準(zhǔn)備。輸入不再像剛剛一樣是一個9216像素強度的扁平向量,而是一個有著(c,0,1)形式的三維矩陣,其中c代表通道(顏色),0和1對應(yīng)著圖像的x和y維度。在我們的問題中,具體的三維矩陣為(1,96,96),因為我們僅僅使用了灰度一個顏色通道。

一個函數(shù)load2d對前述的load函數(shù)進行了包裝,完成這個2維到三維的轉(zhuǎn)變:
def load2d(test=False, cols=None):
X, y = load(test=test)
X = X.reshape(-1, 1, 96, 96)
return X, y

我們將要創(chuàng)建一個具有三個卷積層和兩個全連接層的卷積神經(jīng)網(wǎng)絡(luò)。每個卷積層都跟著一個2*2的最大化池化層。初始卷積層有32個filter,之后每個卷積層我們把filter的數(shù)量翻番。全連接的隱層包含500個神經(jīng)元。

這里還是一樣沒有任何形式(懲罰權(quán)重或者dropout)的正則化。事實證明當(dāng)我們使用尺寸非常小的filter,如3*3或2*2,已經(jīng)起到了非常不錯的正則化效果。

代碼如下:
net2 = NeuralNet(
layers=[
('input', layers.InputLayer),
('conv1', layers.Conv2DLayer),
('pool1', layers.MaxPool2DLayer),
('conv2', layers.Conv2DLayer),
('pool2', layers.MaxPool2DLayer),
('conv3', layers.Conv2DLayer),
('pool3', layers.MaxPool2DLayer),
('hidden4', layers.DenseLayer),
('hidden5', layers.DenseLayer),
('output', layers.DenseLayer),
],
input_shape=(None, 1, 96, 96),
conv1_num_filters=32, conv1_filter_size=(3, 3), pool1_pool_size=(2, 2),
conv2_num_filters=64, conv2_filter_size=(2, 2), pool2_pool_size=(2, 2),
conv3_num_filters=128, conv3_filter_size=(2, 2), pool3_pool_size=(2, 2),
hidden4_num_units=500, hidden5_num_units=500,
output_num_units=30, output_nonlinearity=None,

update_learning_rate=0.01,
update_momentum=0.9,

regression=True,
max_epochs=1000,
verbose=1,
)

X, y = load2d() # load 2-d data
net2.fit(X, y)

# Training for 1000 epochs will take a while. We'll pickle the
# trained model so that we can load it back later:
import cPickle as pickle
with open('net2.pickle', 'wb') as f:
pickle.dump(net2, f, -1)

訓(xùn)練這個網(wǎng)絡(luò)和第一個網(wǎng)絡(luò)相比,將要耗費巨大的時空資源。每次迭代要慢15倍,整個1000次迭代下來要耗費20多分鐘的時間,這還是在你有一個相當(dāng)不錯的GPU的基礎(chǔ)上。

然而耐心總是得到回饋,我們的模型和結(jié)果自然比剛剛好得多。讓我們來看一看運行腳本時的輸出。首先是輸出形狀的層列表,注意因為我們選擇的窗口尺寸,第一個卷積層的32個filter輸出了32張94*94 的特征圖。
InputLayer (None, 1, 96, 96) produces 9216 outputs
Conv2DCCLayer (None, 32, 94, 94) produces 282752 outputs
MaxPool2DCCLayer (None, 32, 47, 47) produces 70688 outputs
Conv2DCCLayer (None, 64, 46, 46) produces 135424 outputs
MaxPool2DCCLayer (None, 64, 23, 23) produces 33856 outputs
Conv2DCCLayer (None, 128, 22, 22) produces 61952 outputs
MaxPool2DCCLayer (None, 128, 11, 11) produces 15488 outputs
DenseLayer (None, 500) produces 500 outputs
DenseLayer (None, 500) produces 500 outputs
DenseLayer (None, 30) produces 30 outputs

接下來我們看到,和第一個網(wǎng)絡(luò)輸出相同,是每一次迭代訓(xùn)練損失和驗證損失以及他們之間的比率。
Epoch | Train loss | Valid loss | Train / Val
--------|--------------|--------------|----------------
1 | 0.111763 | 0.042740 | 2.614934
2 | 0.018500 | 0.009413 | 1.965295
3 | 0.008598 | 0.007918 | 1.085823
4 | 0.007292 | 0.007284 | 1.001139
5 | 0.006783 | 0.006841 | 0.991525
...
500 | 0.001791 | 0.002013 | 0.889810
501 | 0.001789 | 0.002011 | 0.889433
502 | 0.001786 | 0.002009 | 0.889044
503 | 0.001783 | 0.002007 | 0.888534
504 | 0.001780 | 0.002004 | 0.888095
505 | 0.001777 | 0.002002 | 0.887699
...
995 | 0.001083 | 0.001568 | 0.690497
996 | 0.001082 | 0.001567 | 0.690216
997 | 0.001081 | 0.001567 | 0.689867
998 | 0.001080 | 0.001567 | 0.689595
999 | 0.001080 | 0.001567 | 0.689089
1000 | 0.001079 | 0.001566 | 0.688874

1000次迭代后的結(jié)果相對第一個網(wǎng)絡(luò),有了非常不錯的改善,我們的RMSE也有不錯的結(jié)果。
>>> np.sqrt(0.001566) * 48
1.8994904579913006

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉