Elman神经网络介绍以及Matlab实现
Elman神經(jīng)網(wǎng)絡(luò)介紹
1.特點(diǎn)
Elman神經(jīng)網(wǎng)絡(luò)是一種典型的動(dòng)態(tài)遞歸神經(jīng)網(wǎng)絡(luò),它是在BP網(wǎng)絡(luò)基本結(jié)構(gòu)的基礎(chǔ)上,在隱含層增加一個(gè)承接層,作為一步延時(shí)算子,達(dá)到記憶的目的,從而使系統(tǒng)具有適應(yīng)時(shí)變特性的能力,增強(qiáng)了網(wǎng)絡(luò)的全局穩(wěn)定性,它比前饋型神經(jīng)網(wǎng)絡(luò)具有更強(qiáng)的計(jì)算能力,還可以用來解決快速尋優(yōu)問題。
2.結(jié)構(gòu)
Elman神經(jīng)網(wǎng)絡(luò)是應(yīng)用較為廣泛的一種典型的反饋型神經(jīng)網(wǎng)絡(luò)模型。一般分為四層:輸入層、隱層、承接層和輸出層。其輸入層、隱層和輸出層的連接類似于前饋網(wǎng)絡(luò)。輸入層的單元僅起到信號(hào)傳輸作用,輸出層單元起到加權(quán)作用。隱層單元有線性和非線性兩類激勵(lì)函數(shù),通常激勵(lì)函數(shù)取Signmoid非線性函數(shù)。而承接層則用來記憶隱層單元前一時(shí)刻的輸出值,可以認(rèn)為是一個(gè)有一步遲延的延時(shí)算子。隱層的輸出通過承接層的延遲與存儲(chǔ),自聯(lián)到隱層的輸入,這種自聯(lián)方式使其對(duì)歷史數(shù)據(jù)具有敏感性,內(nèi)部反饋網(wǎng)絡(luò)的加入增加了網(wǎng)絡(luò)本身處理動(dòng)態(tài)信息的能力,從而達(dá)到動(dòng)態(tài)建模的目的。其結(jié)構(gòu)圖如下圖1所示,
其網(wǎng)絡(luò)的數(shù)學(xué)表達(dá)式為:
其中,y為m維輸出節(jié)點(diǎn)向量;x為n維中間層節(jié)點(diǎn)單元向量;u為r維輸入向量;為n維反饋狀態(tài)向量;為中間層到輸出層連接權(quán)值;為輸入層到中間層連接權(quán)值;為承接層到中間層連接權(quán)值;g()為輸出神經(jīng)元的傳遞函數(shù),是中間層輸出的線性組合;f()為中間層神經(jīng)元的傳遞函數(shù),常采用S函數(shù)。
3.與BP網(wǎng)絡(luò)的區(qū)別
它是動(dòng)態(tài)反饋型網(wǎng)絡(luò),它能夠內(nèi)部反饋、存儲(chǔ)和利用過去時(shí)刻輸出信息,既可以實(shí)現(xiàn)靜態(tài)系統(tǒng)的建模,還能實(shí)現(xiàn)動(dòng)態(tài)系統(tǒng)的映射并直接反應(yīng)系統(tǒng)的動(dòng)態(tài)特性,在計(jì)算能力及網(wǎng)絡(luò)穩(wěn)定性方面都比BP神經(jīng)網(wǎng)絡(luò)更勝一籌。
4.缺點(diǎn)
與BP神經(jīng)網(wǎng)絡(luò)一樣,算法都是采用基于梯度下降法,會(huì)出現(xiàn)訓(xùn)練速度慢和容易陷入局部極小點(diǎn)的缺點(diǎn),對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練較難達(dá)到全局最優(yōu)。
基于Matlab實(shí)現(xiàn)Elman神經(jīng)網(wǎng)絡(luò)
在MATLAB中,Elman神經(jīng)網(wǎng)絡(luò)可以通過調(diào)用newelm()實(shí)現(xiàn)。
**例子:**利用Elman神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)MATLAB的數(shù)據(jù)預(yù)測(cè)。
運(yùn)行結(jié)果如下:
誤差結(jié)果為:
E =[0.48% 0.40% 0.12% 9.47% 2.28%]
平均誤差為:2.55%
轉(zhuǎn)載請(qǐng)標(biāo)明出處,謝謝!。
如果感覺本文對(duì)您有幫助,請(qǐng)留下您的贊,您的支持是我堅(jiān)持寫作最大的動(dòng)力,謝謝!
總結(jié)
以上是生活随笔為你收集整理的Elman神经网络介绍以及Matlab实现的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: imagePreview接口调用微信自带
- 下一篇: memwatch内存泄露检测工具