當(dāng)前位置:首頁 > EDA > 電子設(shè)計自動化
[導(dǎo)讀]摘要:基于線性神經(jīng)網(wǎng)絡(luò)原理,提出線性神經(jīng)網(wǎng)絡(luò)的模型,并利用Matlab實現(xiàn)Widrow-Hoff神經(jīng)網(wǎng)絡(luò)算法。分析Matlab人工神經(jīng)網(wǎng)絡(luò)工具箱中有關(guān)線性神經(jīng)網(wǎng)絡(luò)的工具函數(shù),最后給出線性神經(jīng)網(wǎng)絡(luò)在系統(tǒng)辨識中的實際應(yīng)用。通過對

摘要:基于線性神經(jīng)網(wǎng)絡(luò)原理,提出線性神經(jīng)網(wǎng)絡(luò)的模型,并利用Matlab實現(xiàn)Widrow-Hoff神經(jīng)網(wǎng)絡(luò)算法。分析Matlab人工神經(jīng)網(wǎng)絡(luò)工具箱中有關(guān)線性神經(jīng)網(wǎng)絡(luò)的工具函數(shù),最后給出線性神經(jīng)網(wǎng)絡(luò)在系統(tǒng)辨識中的實際應(yīng)用。通過對線性神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,進(jìn)一步驗證Widrow-Hoff神經(jīng)網(wǎng)絡(luò)算法的有效性,以及用其進(jìn)行系統(tǒng)辨識的高精度擬合性。
關(guān)鍵詞:Widrow-Hoff學(xué)習(xí)規(guī)則;線性神經(jīng)網(wǎng)絡(luò);Matlab;系統(tǒng)辨識


1 引言
    利用神經(jīng)網(wǎng)絡(luò)解決實際問題時,必定涉及大量數(shù)值計算。為了解決數(shù)值計算與計算機(jī)仿真間的矛盾。美國MathWorks公司推出的集數(shù)學(xué)計算、圖形計算、語言設(shè)計、計算機(jī)仿真于一體的Matlab具有非線性適應(yīng)性信息處理功能,克服傳統(tǒng)人工智能方法對于直覺,如模式、語言識別、非結(jié)構(gòu)化信息處理方面的缺陷,使之在神經(jīng)專家系統(tǒng)、模式識別、智能控制、組合優(yōu)化、預(yù)測等領(lǐng)域獲得成功,具有極高的編程效率。神經(jīng)網(wǎng)絡(luò)工具箱是以神經(jīng)網(wǎng)絡(luò)理論為基礎(chǔ),用Matlab語言構(gòu)造的典型神經(jīng)網(wǎng)絡(luò)工具函數(shù)。Matlab中大量有關(guān)線性神經(jīng)網(wǎng)絡(luò)的工具函數(shù)可為線性神經(jīng)網(wǎng)絡(luò)研究和應(yīng)用提供強(qiáng)有力的工具。


2 線性神經(jīng)網(wǎng)絡(luò)原理
2.1 線性神經(jīng)網(wǎng)絡(luò)的模型
    圖1是具有R個輸入的單層(有S個神經(jīng)元)線性神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其權(quán)值矩陣為w,閾值向量為b,這種網(wǎng)絡(luò)也稱為Madaline網(wǎng)絡(luò)。

2.2 線性神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則
    線性神經(jīng)網(wǎng)絡(luò)是基于線性神經(jīng)網(wǎng)絡(luò)算法。線性神經(jīng)網(wǎng)絡(luò)采用Widrow-Hoff學(xué)習(xí)規(guī)則,利用learnwh()函數(shù)修正網(wǎng)絡(luò)的權(quán)值和閾值。使用Widrow-Hoff學(xué)習(xí)規(guī)則訓(xùn)練網(wǎng)絡(luò)某一層的權(quán)值和閾值,使其線性逼近一個函數(shù)式。
    首先定義一個線性網(wǎng)絡(luò)的誤差函數(shù):

   
    通過式(1)可知,線性網(wǎng)絡(luò)具有拋物面型的誤差曲面,因此只有一個誤差最小值。由于該值取決于網(wǎng)絡(luò)的權(quán)值和目標(biāo)矢量,于是可通過調(diào)整權(quán)值使誤差達(dá)到最小。Widrow-Hoff學(xué)習(xí)規(guī)則是通過沿著相對于誤差平方和的最速下降方向,連續(xù)調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,根據(jù)梯度下降法,權(quán)值矢量的修正正比于當(dāng)前位置上的e(w,b)的梯度,對于第i個輸出節(jié)點:


式中,η是學(xué)習(xí)率。
    當(dāng)η較大時,學(xué)習(xí)過程加速,網(wǎng)絡(luò)收斂較快,但η過大時,學(xué)習(xí)過程變得不穩(wěn)定,且誤差增大;δ(i)=t(i)-a(i)。
    以上各式為Widrow-Hoff學(xué)習(xí)規(guī)則最小均方誤差算法(LMS)。Widrow-Hoff學(xué)習(xí)規(guī)則的權(quán)值變化量正比于網(wǎng)絡(luò)的輸出誤差及網(wǎng)絡(luò)的輸入矢量。該算法無需求導(dǎo),因此較簡單,并具有收斂速度快和精度高的優(yōu)點。由于學(xué)習(xí)率與學(xué)習(xí)過程比較密切,因此學(xué)習(xí)率的取值非常關(guān)鍵。
    采用Widrow-Hoff規(guī)則訓(xùn)練的線性網(wǎng)絡(luò),該網(wǎng)絡(luò)能夠收斂的必要條件是被訓(xùn)練的輸入矢量必須是線性獨(dú)立的,且應(yīng)適當(dāng)選擇學(xué)習(xí)率。


3 線性神經(jīng)網(wǎng)絡(luò)設(shè)計
    Matlab神經(jīng)網(wǎng)絡(luò)工具箱中含有易于構(gòu)建的神經(jīng)網(wǎng)絡(luò)函數(shù)。以下詳細(xì)說明線性神經(jīng)網(wǎng)絡(luò)設(shè)計。
3.1 線性神經(jīng)網(wǎng)絡(luò)的Matlab設(shè)計
3.1.1 線性神經(jīng)網(wǎng)絡(luò)初始化
    初始化是對連接權(quán)值和閾值進(jìn)行初始化。initwb()初始化函數(shù)是對網(wǎng)絡(luò)的某一層的權(quán)值和閾值進(jìn)行初始化,其格式為:net=initwb(net,i)。其中,i表示網(wǎng)絡(luò)的第i層。函數(shù)返回為第i層的權(quán)值和閾值都更新的網(wǎng)絡(luò)。
3.1.2 訓(xùn)練網(wǎng)絡(luò)
    線性神經(jīng)網(wǎng)絡(luò)初始化后,就可對其訓(xùn)練。設(shè)置參數(shù),諸如學(xué)習(xí)步長、誤差目標(biāo)等,同時在網(wǎng)絡(luò)訓(xùn)練過程中,圖形顯示網(wǎng)絡(luò)誤差隨學(xué)習(xí)次數(shù)的變化而變化。
    其格式為:

   
式中,Pd為延遲輸入;T為每一層的目標(biāo)向量;Ai為初始輸入條件;Q為輸入向量個數(shù);TS為時間步長;VV為空矩陣或確定的向量結(jié)構(gòu)。
3.1.3 網(wǎng)絡(luò)仿真
    仿真甬?dāng)?shù)sim()用來網(wǎng)絡(luò)仿真。其格式為:[Y,Pf,Af]=sim(net,{Q TS},Pi,Ai)。其中,Y為訓(xùn)練好的線性神經(jīng)網(wǎng)絡(luò)的實際輸出;Pf為最終輸出延遲;Af為最終的層延遲。
3.2 訓(xùn)練步驟
    (1)根據(jù)給定的輸入矢量計算網(wǎng)絡(luò)的輸出矢量a=wxp+b,并計算與期望輸出之間的誤差e=t-a;
    (2)將網(wǎng)絡(luò)輸出誤差的平方和與期望誤差相比較,如果其值小于期望誤差,或訓(xùn)練以達(dá)到事先設(shè)定的最大訓(xùn)練次數(shù),則終止訓(xùn)練;否則,繼續(xù)訓(xùn)練;
    (3)采用Widfrow-Hoff學(xué)習(xí)規(guī)則計算新的權(quán)值和閾值,并返回至(1)。


4 線性神經(jīng)網(wǎng)絡(luò)在系統(tǒng)辨識中的應(yīng)用
4.1 工作原理
    線性神經(jīng)網(wǎng)絡(luò)用于線性系統(tǒng)辨識必須遵循系統(tǒng)辨識的3個基本構(gòu)成原則:(1)選擇在滿足給定的誤差準(zhǔn)則下逼近系統(tǒng)的最簡單模型;(2)輸入信號的頻譜必須足以覆蓋系統(tǒng)的頻譜;(3)誤差準(zhǔn)則由誤差的泛函表示。
    對于一個具有m個輸入和n個輸出的r階離散線性系統(tǒng),可由n個差分方程來描述,其中第l個差分方程的一般形式表示為:

   
式中,aij和bij是方程右邊各項系數(shù),如果某項系數(shù)為零,則該項與y1(k)無關(guān),去掉該項。
    從式(5)可以看出,線性系統(tǒng)k時刻的輸出可以由前面時刻有關(guān)輸入輸出線性表示,這種關(guān)系類似于單層線性神經(jīng)網(wǎng)絡(luò)輸入輸出之間的關(guān)系。根據(jù)上述原則(1),建立線性神經(jīng)網(wǎng)絡(luò)以辨識線性系統(tǒng),神經(jīng)網(wǎng)絡(luò)的輸入由系統(tǒng)輸入輸出信號的時延序列組成,網(wǎng)絡(luò)的輸入個數(shù)與系統(tǒng)階數(shù)有關(guān),神經(jīng)網(wǎng)絡(luò)的輸出代表系統(tǒng)輸出的估計值,網(wǎng)絡(luò)的輸出個數(shù)等于系統(tǒng)輸出個數(shù)。網(wǎng)絡(luò)建立后,根據(jù)基本構(gòu)成原則(2),運(yùn)用Widrow-Hoff學(xué)習(xí)規(guī)則訓(xùn)練神經(jīng)網(wǎng)絡(luò),反復(fù)調(diào)節(jié)網(wǎng)絡(luò)的權(quán)值和閾值,使網(wǎng)絡(luò)輸出y(k)和系統(tǒng)輸出Y(k)之間的輸出誤差不斷減小,直至達(dá)到規(guī)定精度要求。
4.2 應(yīng)用實例
    設(shè)系統(tǒng)傳遞甬?dāng)?shù)為用線性神經(jīng)網(wǎng)絡(luò)辨識其脈沖響應(yīng)。設(shè)置如果迭代次數(shù)大于10 000或誤差小于0.001時,訓(xùn)練結(jié)束。
    采用其工作原理及Widrow-Hoff規(guī)則訓(xùn)練給定系統(tǒng)。訓(xùn)練過程中,當(dāng)?shù)拇螖?shù)大于10 000或誤差小于目標(biāo)誤差時,訓(xùn)練結(jié)束。圖2為訓(xùn)練后的訓(xùn)練誤差及步數(shù)曲線,由圖2看出,經(jīng)過7 766步訓(xùn)練后誤差達(dá)到0.000 999 252小于誤差目標(biāo)e=0.001,訓(xùn)練結(jié)束。

    圖3為訓(xùn)練后的結(jié)果與期望結(jié)果的比較,圖中,“·”表示訓(xùn)練值,連續(xù)曲線表示理論值。由圖3可見,訓(xùn)練值和理論值基本擬合。

    需要注意的是,在訓(xùn)練過程中發(fā)現(xiàn),由于權(quán)值的初始值是隨機(jī)的,經(jīng)多次訓(xùn)練,每次的訓(xùn)練結(jié)果都不一樣,有時訓(xùn)練到10 000步時仍然收斂不到0.001。由此可見,初始權(quán)值的選取對訓(xùn)練是有一定影響的。選取初始值時應(yīng)要根據(jù)具體要求而定,不能隨意而定。

5 結(jié)語
    論述的Widrow-Hoff學(xué)習(xí)規(guī)則算法可實現(xiàn),仿真結(jié)果表明Widrow-Hoff學(xué)習(xí)規(guī)則無需求導(dǎo),算法比較簡單,收斂速度快。采用線性神經(jīng)網(wǎng)絡(luò)辨識系統(tǒng),無需建立實際系統(tǒng)的辨識模式,因為線性神經(jīng)網(wǎng)絡(luò)本身已作為一種辨識模型,可達(dá)到很高的辨識速度且擬合精度較高。該方法還可推廣至其他本質(zhì)非線性系統(tǒng)。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉