日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

神经网络模型的基本原理,常用的神经网络模型

發(fā)布時(shí)間:2024/1/18 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络模型的基本原理,常用的神经网络模型 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

有哪些深度神經(jīng)網(wǎng)絡(luò)模型

目前經(jīng)常使用的深度神經(jīng)網(wǎng)絡(luò)模型主要有卷積神經(jīng)網(wǎng)絡(luò)(CNN) 、遞歸神經(jīng)網(wǎng)絡(luò)(RNN)、深信度網(wǎng)絡(luò)(DBN) 、深度自動(dòng)編碼器(AutoEncoder) 和生成對(duì)抗網(wǎng)絡(luò)(GAN) 等。

遞歸神經(jīng)網(wǎng)絡(luò)實(shí)際.上包含了兩種神經(jīng)網(wǎng)絡(luò)。

一種是循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent NeuralNetwork) ;另一種是結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network),它使用相似的網(wǎng)絡(luò)結(jié)構(gòu)遞歸形成更加復(fù)雜的深度網(wǎng)絡(luò)。

RNN它們都可以處理有序列的問題,比如時(shí)間序列等且RNN有“記憶”能力,可以“模擬”數(shù)據(jù)間的依賴關(guān)系。卷積網(wǎng)絡(luò)的精髓就是適合處理結(jié)構(gòu)化數(shù)據(jù)。

關(guān)于深度神經(jīng)網(wǎng)絡(luò)模型的相關(guān)學(xué)習(xí),推薦CDA數(shù)據(jù)師的相關(guān)課程,課程以項(xiàng)目調(diào)動(dòng)學(xué)員數(shù)據(jù)挖掘?qū)嵱媚芰Φ膱?chǎng)景式教學(xué)為主,在講師設(shè)計(jì)的業(yè)務(wù)場(chǎng)景下由講師不斷提出業(yè)務(wù)問題,再由學(xué)員循序漸進(jìn)思考并操作解決問題的過程中,幫助學(xué)員掌握真正過硬的解決業(yè)務(wù)問題的數(shù)據(jù)挖掘能力。

這種教學(xué)方式能夠引發(fā)學(xué)員的獨(dú)立思考及主觀能動(dòng)性,學(xué)員掌握的技能知識(shí)可以快速轉(zhuǎn)化為自身能夠靈活應(yīng)用的技能,在面對(duì)不同場(chǎng)景時(shí)能夠自由發(fā)揮。

谷歌人工智能寫作項(xiàng)目:神經(jīng)網(wǎng)絡(luò)偽原創(chuàng)

有哪些深度神經(jīng)網(wǎng)絡(luò)模型?

目前經(jīng)常使用的深度神經(jīng)網(wǎng)絡(luò)模型主要有卷積神經(jīng)網(wǎng)絡(luò)(CNN) 、遞歸神經(jīng)網(wǎng)絡(luò)(RNN)、深信度網(wǎng)絡(luò)(DBN) 、深度自動(dòng)編碼器(AutoEncoder) 和生成對(duì)抗網(wǎng)絡(luò)(GAN) 等好文案

遞歸神經(jīng)網(wǎng)絡(luò)實(shí)際.上包含了兩種神經(jīng)網(wǎng)絡(luò)。

一種是循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent NeuralNetwork) ;另一種是結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network),它使用相似的網(wǎng)絡(luò)結(jié)構(gòu)遞歸形成更加復(fù)雜的深度網(wǎng)絡(luò)。

RNN它們都可以處理有序列的問題,比如時(shí)間序列等且RNN有“記憶”能力,可以“模擬”數(shù)據(jù)間的依賴關(guān)系。卷積網(wǎng)絡(luò)的精髓就是適合處理結(jié)構(gòu)化數(shù)據(jù)。

關(guān)于深度神經(jīng)網(wǎng)絡(luò)模型的相關(guān)學(xué)習(xí),推薦CDA數(shù)據(jù)師的相關(guān)課程,課程以項(xiàng)目調(diào)動(dòng)學(xué)員數(shù)據(jù)挖掘?qū)嵱媚芰Φ膱?chǎng)景式教學(xué)為主,在講師設(shè)計(jì)的業(yè)務(wù)場(chǎng)景下由講師不斷提出業(yè)務(wù)問題,再由學(xué)員循序漸進(jìn)思考并操作解決問題的過程中,幫助學(xué)員掌握真正過硬的解決業(yè)務(wù)問題的數(shù)據(jù)挖掘能力。

這種教學(xué)方式能夠引發(fā)學(xué)員的獨(dú)立思考及主觀能動(dòng)性,學(xué)員掌握的技能知識(shí)可以快速轉(zhuǎn)化為自身能夠靈活應(yīng)用的技能,在面對(duì)不同場(chǎng)景時(shí)能夠自由發(fā)揮。點(diǎn)擊預(yù)約免費(fèi)試聽課。

神經(jīng)網(wǎng)絡(luò)BP模型

一、BP模型概述誤差逆?zhèn)鞑?Error Back-Propagation)神經(jīng)網(wǎng)絡(luò)模型簡(jiǎn)稱為BP(Back-Propagation)網(wǎng)絡(luò)模型。

Pall Werbas博士于1974年在他的博士論文中提出了誤差逆?zhèn)鞑W(xué)習(xí)算法。完整提出并被廣泛接受誤差逆?zhèn)鞑W(xué)習(xí)算法的是以Rumelhart和McCelland為首的科學(xué)家小組。

他們?cè)?986年出版“Parallel Distributed Processing,Explorations in the Microstructure of Cognition”(《并行分布信息處理》)一書中,對(duì)誤差逆?zhèn)鞑W(xué)習(xí)算法進(jìn)行了詳盡的分析與介紹,并對(duì)這一算法的潛在能力進(jìn)行了深入探討。

BP網(wǎng)絡(luò)是一種具有3層或3層以上的階層型神經(jīng)網(wǎng)絡(luò)。上、下層之間各神經(jīng)元實(shí)現(xiàn)全連接,即下層的每一個(gè)神經(jīng)元與上層的每一個(gè)神經(jīng)元都實(shí)現(xiàn)權(quán)連接,而每一層各神經(jīng)元之間無(wú)連接。

網(wǎng)絡(luò)按有教師示教的方式進(jìn)行學(xué)習(xí),當(dāng)一對(duì)學(xué)習(xí)模式提供給網(wǎng)絡(luò)后,神經(jīng)元的激活值從輸入層經(jīng)各隱含層向輸出層傳播,在輸出層的各神經(jīng)元獲得網(wǎng)絡(luò)的輸入響應(yīng)。

在這之后,按減小期望輸出與實(shí)際輸出的誤差的方向,從輸入層經(jīng)各隱含層逐層修正各連接權(quán),最后回到輸入層,故得名“誤差逆?zhèn)鞑W(xué)習(xí)算法”。

隨著這種誤差逆?zhèn)鞑バ拚牟粩噙M(jìn)行,網(wǎng)絡(luò)對(duì)輸入模式響應(yīng)的正確率也不斷提高。

BP網(wǎng)絡(luò)主要應(yīng)用于以下幾個(gè)方面:1)函數(shù)逼近:用輸入模式與相應(yīng)的期望輸出模式學(xué)習(xí)一個(gè)網(wǎng)絡(luò)逼近一個(gè)函數(shù);2)模式識(shí)別:用一個(gè)特定的期望輸出模式將它與輸入模式聯(lián)系起來(lái);3)分類:把輸入模式以所定義的合適方式進(jìn)行分類;4)數(shù)據(jù)壓縮:減少輸出矢量的維數(shù)以便于傳輸或存儲(chǔ)。

在人工神經(jīng)網(wǎng)絡(luò)的實(shí)際應(yīng)用中,80%~90%的人工神經(jīng)網(wǎng)絡(luò)模型采用BP網(wǎng)絡(luò)或它的變化形式,它也是前向網(wǎng)絡(luò)的核心部分,體現(xiàn)了人工神經(jīng)網(wǎng)絡(luò)最精華的部分。

二、BP模型原理下面以三層BP網(wǎng)絡(luò)為例,說(shuō)明學(xué)習(xí)和應(yīng)用的原理。

1.數(shù)據(jù)定義P對(duì)學(xué)習(xí)模式(xp,dp),p=1,2,…,P;輸入模式矩陣X[N][P]=(x1,x2,…,xP);目標(biāo)模式矩陣d[M][P]=(d1,d2,…,dP)。

三層BP網(wǎng)絡(luò)結(jié)構(gòu)輸入層神經(jīng)元節(jié)點(diǎn)數(shù)S0=N,i=1,2,…,S0;隱含層神經(jīng)元節(jié)點(diǎn)數(shù)S1,j=1,2,…,S1;神經(jīng)元激活函數(shù)f1[S1];權(quán)值矩陣W1[S1][S0];偏差向量b1[S1]。

輸出層神經(jīng)元節(jié)點(diǎn)數(shù)S2=M,k=1,2,…,S2;神經(jīng)元激活函數(shù)f2[S2];權(quán)值矩陣W2[S2][S1];偏差向量b2[S2]。

學(xué)習(xí)參數(shù)目標(biāo)誤差?;初始權(quán)更新值Δ0;最大權(quán)更新值Δmax;權(quán)更新值增大倍數(shù)η+;權(quán)更新值減小倍數(shù)η-。

2.誤差函數(shù)定義對(duì)第p個(gè)輸入模式的誤差的計(jì)算公式為中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型y2kp為BP網(wǎng)的計(jì)算輸出。

3.BP網(wǎng)絡(luò)學(xué)習(xí)公式推導(dǎo)BP網(wǎng)絡(luò)學(xué)習(xí)公式推導(dǎo)的指導(dǎo)思想是,對(duì)網(wǎng)絡(luò)的權(quán)值W、偏差b修正,使誤差函數(shù)沿負(fù)梯度方向下降,直到網(wǎng)絡(luò)輸出誤差精度達(dá)到目標(biāo)精度要求,學(xué)習(xí)結(jié)束。

各層輸出計(jì)算公式輸入層y0i=xi,i=1,2,…,S0;隱含層中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型y1j=f1(z1j),j=1,2,…,S1;輸出層中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型y2k=f2(z2k),k=1,2,…,S2。

輸出節(jié)點(diǎn)的誤差公式中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型對(duì)輸出層節(jié)點(diǎn)的梯度公式推導(dǎo)中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型E是多個(gè)y2m的函數(shù),但只有一個(gè)y2k與wkj有關(guān),各y2m間相互獨(dú)立。

其中中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型則中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型設(shè)輸出層節(jié)點(diǎn)誤差為δ2k=(dk-y2k)·f2′(z2k),則中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型同理可得中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型對(duì)隱含層節(jié)點(diǎn)的梯度公式推導(dǎo)中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型E是多個(gè)y2k的函數(shù),針對(duì)某一個(gè)w1ji,對(duì)應(yīng)一個(gè)y1j,它與所有的y2k有關(guān)。

因此,上式只存在對(duì)k的求和,其中中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型則中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型設(shè)隱含層節(jié)點(diǎn)誤差為中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型則中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型同理可得中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型4.采用彈性BP算法(RPROP)計(jì)算權(quán)值W、偏差b的修正值ΔW,Δb1993年德國(guó) Martin Riedmiller和Heinrich Braun 在他們的論文“A Direct Adaptive Method for Faster Backpropagation Learning:The RPROP Algorithm”中,提出Resilient Backpropagation算法——彈性BP算法(RPROP)。

這種方法試圖消除梯度的大小對(duì)權(quán)步的有害影響,因此,只有梯度的符號(hào)被認(rèn)為表示權(quán)更新的方向。

權(quán)改變的大小僅僅由權(quán)專門的“更新值” 確定中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型其中 表示在模式集的所有模式(批學(xué)習(xí))上求和的梯度信息,(t)表示t時(shí)刻或第t次學(xué)習(xí)。

權(quán)更新遵循規(guī)則:如果導(dǎo)數(shù)是正(增加誤差),這個(gè)權(quán)由它的更新值減少。如果導(dǎo)數(shù)是負(fù),更新值增加。中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型RPROP算法是根據(jù)局部梯度信息實(shí)現(xiàn)權(quán)步的直接修改。

對(duì)于每個(gè)權(quán),我們引入它的各自的更新值 ,它獨(dú)自確定權(quán)更新值的大小。

這是基于符號(hào)相關(guān)的自適應(yīng)過程,它基于在誤差函數(shù)E上的局部梯度信息,按照以下的學(xué)習(xí)規(guī)則更新中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型其中0<η-<1<η+。

在每個(gè)時(shí)刻,如果目標(biāo)函數(shù)的梯度改變它的符號(hào),它表示最后的更新太大,更新值 應(yīng)由權(quán)更新值減小倍數(shù)因子η-得到減少;如果目標(biāo)函數(shù)的梯度保持它的符號(hào),更新值應(yīng)由權(quán)更新值增大倍數(shù)因子η+得到增大。

為了減少自由地可調(diào)參數(shù)的數(shù)目,增大倍數(shù)因子η+和減小倍數(shù)因子η–被設(shè)置到固定值η+=1.2,η-=0.5,這兩個(gè)值在大量的實(shí)踐中得到了很好的效果。

RPROP算法采用了兩個(gè)參數(shù):初始權(quán)更新值Δ0和最大權(quán)更新值Δmax當(dāng)學(xué)習(xí)開始時(shí),所有的更新值被設(shè)置為初始值Δ0,因?yàn)樗苯哟_定了前面權(quán)步的大小,它應(yīng)該按照權(quán)自身的初值進(jìn)行選擇,例如,Δ0=0.1(默認(rèn)設(shè)置)。

為了使權(quán)不至于變得太大,設(shè)置最大權(quán)更新值限制Δmax,默認(rèn)上界設(shè)置為Δmax=50.0。在很多實(shí)驗(yàn)中,發(fā)現(xiàn)通過設(shè)置最大權(quán)更新值Δmax到相當(dāng)小的值,例如Δmax=1.0。

我們可能達(dá)到誤差減小的平滑性能。5.計(jì)算修正權(quán)值W、偏差b第t次學(xué)習(xí),權(quán)值W、偏差b的的修正公式W(t)=W(t-1)+ΔW(t),b(t)=b(t-1)+Δb(t),其中,t為學(xué)習(xí)次數(shù)。

6.BP網(wǎng)絡(luò)學(xué)習(xí)成功結(jié)束條件每次學(xué)習(xí)累積誤差平方和中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型每次學(xué)習(xí)平均誤差中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型當(dāng)平均誤差MSE<ε,BP網(wǎng)絡(luò)學(xué)習(xí)成功結(jié)束。

7.BP網(wǎng)絡(luò)應(yīng)用預(yù)測(cè)在應(yīng)用BP網(wǎng)絡(luò)時(shí),提供網(wǎng)絡(luò)輸入給輸入層,應(yīng)用給定的BP網(wǎng)絡(luò)及BP網(wǎng)絡(luò)學(xué)習(xí)得到的權(quán)值W、偏差b,網(wǎng)絡(luò)輸入經(jīng)過從輸入層經(jīng)各隱含層向輸出層的“順傳播”過程,計(jì)算出BP網(wǎng)的預(yù)測(cè)輸出。

8.神經(jīng)元激活函數(shù)f線性函數(shù)f(x)=x,f′(x)=1,f(x)的輸入范圍(-∞,+∞),輸出范圍(-∞,+∞)。一般用于輸出層,可使網(wǎng)絡(luò)輸出任何值。

S型函數(shù)S(x)中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型f(x)的輸入范圍(-∞,+∞),輸出范圍(0,1)。f′(x)=f(x)[1-f(x)],f′(x)的輸入范圍(-∞,+∞),輸出范圍(0, ]。

一般用于隱含層,可使范圍(-∞,+∞)的輸入,變成(0,1)的網(wǎng)絡(luò)輸出,對(duì)較大的輸入,放大系數(shù)較小;而對(duì)較小的輸入,放大系數(shù)較大,所以可用來(lái)處理和逼近非線性的輸入/輸出關(guān)系。

在用于模式識(shí)別時(shí),可用于輸出層,產(chǎn)生逼近于0或1的二值輸出。雙曲正切S型函數(shù)中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型f(x)的輸入范圍(-∞,+∞),輸出范圍(-1,1)。

f′(x)=1-f(x)·f(x),f′(x)的輸入范圍(-∞,+∞),輸出范圍(0,1]。

一般用于隱含層,可使范圍(-∞,+∞)的輸入,變成(-1,1)的網(wǎng)絡(luò)輸出,對(duì)較大的輸入,放大系數(shù)較小;而對(duì)較小的輸入,放大系數(shù)較大,所以可用來(lái)處理和逼近非線性的輸入/輸出關(guān)系。

階梯函數(shù)類型1中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型f(x)的輸入范圍(-∞,+∞),輸出范圍{0,1}。f′(x)=0。

類型2中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型f(x)的輸入范圍(-∞,+∞),輸出范圍{-1,1}。f′(x)=0。

斜坡函數(shù)類型1中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型f(x)的輸入范圍(-∞,+∞),輸出范圍[0,1]。中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型f′(x)的輸入范圍(-∞,+∞),輸出范圍{0,1}。

類型2中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型f(x)的輸入范圍(-∞,+∞),輸出范圍[-1,1]。中國(guó)礦產(chǎn)資源評(píng)價(jià)新技術(shù)與評(píng)價(jià)新模型f′(x)的輸入范圍(-∞,+∞),輸出范圍{0,1}。

三、總體算法1.三層BP網(wǎng)絡(luò)(含輸入層,隱含層,輸出層)權(quán)值W、偏差b初始化總體算法(1)輸入?yún)?shù)X[N][P],S0,S1,f1[S1],S2,f2[S2];(2)計(jì)算輸入模式X[N][P]各個(gè)變量的最大值,最小值矩陣 Xmax[N],Xmin[N];(3)隱含層的權(quán)值W1,偏差b1初始化。

情形1:隱含層激活函數(shù)f( )都是雙曲正切S型函數(shù)1)計(jì)算輸入模式X[N][P]的每個(gè)變量的范圍向量Xrng[N];2)計(jì)算輸入模式X的每個(gè)變量的范圍均值向量Xmid[N];3)計(jì)算W,b的幅度因子Wmag;4)產(chǎn)生[-1,1]之間均勻分布的S0×1維隨機(jī)數(shù)矩陣Rand[S1];5)產(chǎn)生均值為0,方差為1的正態(tài)分布的S1×S0維隨機(jī)數(shù)矩陣Randnr[S1][S0],隨機(jī)數(shù)范圍大致在[-1,1];6)計(jì)算W[S1][S0],b[S1];7)計(jì)算隱含層的初始化權(quán)值W1[S1][S0];8)計(jì)算隱含層的初始化偏差b1[S1];9))輸出W1[S1][S0],b1[S1]。

情形2:隱含層激活函數(shù)f( )都是S型函數(shù)1)計(jì)算輸入模式X[N][P]的每個(gè)變量的范圍向量Xrng[N];2)計(jì)算輸入模式X的每個(gè)變量的范圍均值向量Xmid[N];3)計(jì)算W,b的幅度因子Wmag;4)產(chǎn)生[-1,1]之間均勻分布的S0×1維隨機(jī)數(shù)矩陣Rand[S1];5)產(chǎn)生均值為0,方差為1的正態(tài)分布的S1×S0維隨機(jī)數(shù)矩陣Randnr[S1][S0],隨機(jī)數(shù)范圍大致在[-1,1];6)計(jì)算W[S1][S0],b[S1];7)計(jì)算隱含層的初始化權(quán)值W1[S1][S0];8)計(jì)算隱含層的初始化偏差b1[S1];9)輸出W1[S1][S0],b1[S1]。

情形3:隱含層激活函數(shù)f( )為其他函數(shù)的情形1)計(jì)算輸入模式X[N][P]的每個(gè)變量的范圍向量Xrng[N];2)計(jì)算輸入模式X的每個(gè)變量的范圍均值向量Xmid[N];3)計(jì)算W,b的幅度因子Wmag;4)產(chǎn)生[-1,1]之間均勻分布的S0×1維隨機(jī)數(shù)矩陣Rand[S1];5)產(chǎn)生均值為0,方差為1的正態(tài)分布的S1×S0維隨機(jī)數(shù)矩陣Randnr[S1][S0],隨機(jī)數(shù)范圍大致在[-1,1];6)計(jì)算W[S1][S0],b[S1];7)計(jì)算隱含層的初始化權(quán)值W1[S1][S0];8)計(jì)算隱含層的初始化偏差b1[S1];9)輸出W1[S1][S0],b1[S1]。

(4)輸出層的權(quán)值W2,偏差b2初始化1)產(chǎn)生[-1,1]之間均勻分布的S2×S1維隨機(jī)數(shù)矩陣W2[S2][S1];2)產(chǎn)生[-1,1]之間均勻分布的S2×1維隨機(jī)數(shù)矩陣b2[S2];3)輸出W2[S2][S1],b2[S2]。

2.應(yīng)用彈性BP算法(RPROP)學(xué)習(xí)三層BP網(wǎng)絡(luò)(含輸入層,隱含層,輸出層)權(quán)值W、偏差b總體算法函數(shù):Train3BP_RPROP(S0,X,P,S1,W1,b1,f1,S2,W2,b2,f2,d,TP)(1)輸入?yún)?shù)P對(duì)模式(xp,dp),p=1,2,…,P;三層BP網(wǎng)絡(luò)結(jié)構(gòu);學(xué)習(xí)參數(shù)。

(2)學(xué)習(xí)初始化1) ;2)各層W,b的梯度值 , 初始化為零矩陣。

(3)由輸入模式X求第一次學(xué)習(xí)各層輸出y0,y1,y2及第一次學(xué)習(xí)平均誤差MSE(4)進(jìn)入學(xué)習(xí)循環(huán)epoch=1(5)判斷每次學(xué)習(xí)誤差是否達(dá)到目標(biāo)誤差要求如果MSE<?,則,跳出epoch循環(huán),轉(zhuǎn)到(12)。

(6)保存第epoch-1次學(xué)習(xí)產(chǎn)生的各層W,b的梯度值 , (7)求第epoch次學(xué)習(xí)各層W,b的梯度值 , 1)求各層誤差反向傳播值δ;2)求第p次各層W,b的梯度值 , ;3)求p=1,2,…,P次模式產(chǎn)生的W,b的梯度值 , 的累加。

(8)如果epoch=1,則將第epoch-1次學(xué)習(xí)的各層W,b的梯度值 , 設(shè)為第epoch次學(xué)習(xí)產(chǎn)生的各層W,b的梯度值 , 。

(9)求各層W,b的更新1)求權(quán)更新值Δij更新;2)求W,b的權(quán)更新值 , ;3)求第epoch次學(xué)習(xí)修正后的各層W,b。

(10)用修正后各層W、b,由X求第epoch次學(xué)習(xí)各層輸出y0,y1,y2及第epoch次學(xué)習(xí)誤差MSE(11)epoch=epoch+1,如果epoch≤MAX_EPOCH,轉(zhuǎn)到(5);否則,轉(zhuǎn)到(12)。

(12)輸出處理1)如果MSE<ε,則學(xué)習(xí)達(dá)到目標(biāo)誤差要求,輸出W1,b1,W2,b2。2)如果MSE≥ε,則學(xué)習(xí)沒有達(dá)到目標(biāo)誤差要求,再次學(xué)習(xí)。

(13)結(jié)束3.三層BP網(wǎng)絡(luò)(含輸入層,隱含層,輸出層)預(yù)測(cè)總體算法首先應(yīng)用Train3lBP_RPROP( )學(xué)習(xí)三層BP網(wǎng)絡(luò)(含輸入層,隱含層,輸出層)權(quán)值W、偏差b,然后應(yīng)用三層BP網(wǎng)絡(luò)(含輸入層,隱含層,輸出層)預(yù)測(cè)。

函數(shù):Simu3lBP( )。1)輸入?yún)?shù):P個(gè)需預(yù)測(cè)的輸入數(shù)據(jù)向量xp,p=1,2,…,P;三層BP網(wǎng)絡(luò)結(jié)構(gòu);學(xué)習(xí)得到的各層權(quán)值W、偏差b。

2)計(jì)算P個(gè)需預(yù)測(cè)的輸入數(shù)據(jù)向量xp(p=1,2,…,P)的網(wǎng)絡(luò)輸出 y2[S2][P],輸出預(yù)測(cè)結(jié)果y2[S2][P]。四、總體算法流程圖BP網(wǎng)絡(luò)總體算法流程圖見附圖2。

五、數(shù)據(jù)流圖BP網(wǎng)數(shù)據(jù)流圖見附圖1。

六、實(shí)例實(shí)例一 全國(guó)銅礦化探異常數(shù)據(jù)BP 模型分類1.全國(guó)銅礦化探異常數(shù)據(jù)準(zhǔn)備在全國(guó)銅礦化探數(shù)據(jù)上用穩(wěn)健統(tǒng)計(jì)學(xué)方法選取銅異常下限值33.1,生成全國(guó)銅礦化探異常數(shù)據(jù)。

2.模型數(shù)據(jù)準(zhǔn)備根據(jù)全國(guó)銅礦化探異常數(shù)據(jù),選取7類33個(gè)礦點(diǎn)的化探數(shù)據(jù)作為模型數(shù)據(jù)。

這7類分別是巖漿巖型銅礦、斑巖型銅礦、矽卡巖型、海相火山型銅礦、陸相火山型銅礦、受變質(zhì)型銅礦、海相沉積型銅礦,另添加了一類沒有銅異常的模型(表8-1)。3.測(cè)試數(shù)據(jù)準(zhǔn)備全國(guó)化探數(shù)據(jù)作為測(cè)試數(shù)據(jù)集。

4.BP網(wǎng)絡(luò)結(jié)構(gòu)隱層數(shù)2,輸入層到輸出層向量維數(shù)分別為14,9、5、1。學(xué)習(xí)率設(shè)置為0.9,系統(tǒng)誤差1e-5。沒有動(dòng)量項(xiàng)。表8-1 模型數(shù)據(jù)表續(xù)表5.計(jì)算結(jié)果圖如圖8-2、圖8-3。

圖8-2圖8-3 全國(guó)銅礦礦床類型BP模型分類示意圖實(shí)例二 全國(guó)金礦礦石量品位數(shù)據(jù)BP 模型分類1.模型數(shù)據(jù)準(zhǔn)備根據(jù)全國(guó)金礦儲(chǔ)量品位數(shù)據(jù),選取4類34個(gè)礦床數(shù)據(jù)作為模型數(shù)據(jù),這4類分別是綠巖型金礦、與中酸性浸入巖有關(guān)的熱液型金礦、微細(xì)浸染型型金礦、火山熱液型金礦(表8-2)。

2.測(cè)試數(shù)據(jù)準(zhǔn)備模型樣本點(diǎn)和部分金礦點(diǎn)金屬量、礦石量、品位數(shù)據(jù)作為測(cè)試數(shù)據(jù)集。3.BP網(wǎng)絡(luò)結(jié)構(gòu)輸入層為三維,隱層1層,隱層為三維,輸出層為四維,學(xué)習(xí)率設(shè)置為0.8,系統(tǒng)誤差1e-4,迭代次數(shù)5000。

表8-2 模型數(shù)據(jù)4.計(jì)算結(jié)果結(jié)果見表8-3、8-4。表8-3 訓(xùn)練學(xué)習(xí)結(jié)果表8-4 預(yù)測(cè)結(jié)果(部分)續(xù)表。

那個(gè)最簡(jiǎn)單的BP神經(jīng)網(wǎng)絡(luò)是什么意思啊,求解答

最簡(jiǎn)單的BP神經(jīng)網(wǎng)絡(luò)?可能指單輸入單輸出的單隱層感知器模型。

BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是1986年由Rumelhart和McCelland為首的科學(xué)家小組提出,是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò),是目前應(yīng)用最廣泛的神經(jīng)網(wǎng)絡(luò)模型之一。

BP網(wǎng)絡(luò)能學(xué)習(xí)和存貯大量的輸入-輸出模式映射關(guān)系,而無(wú)需事前揭示描述這種映射關(guān)系的數(shù)學(xué)方程。它的學(xué)習(xí)規(guī)則是使用最速下降法,通過反向傳播來(lái)不斷調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,使網(wǎng)絡(luò)的誤差平方和最小。

BP神經(jīng)網(wǎng)絡(luò)模型拓?fù)浣Y(jié)構(gòu)包括輸入層(input)、隱層(hidden layer)和輸出層(output layer)。

?

總結(jié)

以上是生活随笔為你收集整理的神经网络模型的基本原理,常用的神经网络模型的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。