BP神经网络模型介绍
神經(jīng)網(wǎng)絡(luò)模型和算法:
Bp神經(jīng)網(wǎng)絡(luò)是一種反向傳播機制,反饋錯誤,固化期望輸出
神經(jīng)網(wǎng)絡(luò),深度學(xué)習(xí)的底層
神經(jīng)元由三層結(jié)構(gòu)組成:
輸入層【例如信號、知識的輸入】,隱藏層【用作處理、訓(xùn)練、學(xué)習(xí),必不可少,相當(dāng)于知識的理解】,輸出層【經(jīng)過“學(xué)習(xí)”后的輸出】。
誤差反饋辦法:在模擬,交互時,常用到線性擬合,然而現(xiàn)實中大部分事務(wù)時是非線性的,而神經(jīng)網(wǎng)絡(luò)就是通過不斷的誤差反饋,來擬合這種非線性的事務(wù)。
神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)確定,最重要的就是權(quán)值確定【神經(jīng)網(wǎng)絡(luò)算法就是權(quán)值的調(diào)整確定】
生物神經(jīng)元:輸入,信號加工、傳遞,輸出
人工神經(jīng)模型:輸入信號x,權(quán)值w【不知關(guān)系,黑箱模型】,閾值θ【產(chǎn)生刺激最低的信號值,用于選擇要處理的信號,防止處理過多】,輸出y。x和y用大量的權(quán)w來鏈接。
神經(jīng)網(wǎng)絡(luò)系統(tǒng)是多輸入,單輸出的非線性系統(tǒng)。
神經(jīng)元輸入輸出關(guān)系【與權(quán)、閾有關(guān)】,net=wx,y=f(net),f是一種激活函數(shù)。
上面的關(guān)系也可以用向量表示,激活函數(shù)常為s函數(shù)、雙極s函數(shù),均為連續(xù)函數(shù)。
學(xué)習(xí)訓(xùn)練的模式有前饋,反饋【最好】,自由神經(jīng)網(wǎng)絡(luò),其中反饋模式最好。
神經(jīng)網(wǎng)絡(luò)工作狀態(tài):學(xué)習(xí)【利用學(xué)習(xí)調(diào)整權(quán)重,使網(wǎng)絡(luò)輸出符合實際】和工作【鏈接權(quán)重不變,作為分類器或預(yù)測數(shù)據(jù)用】
BP是一種有導(dǎo)師、有監(jiān)督的反饋學(xué)習(xí)方式。
BP神經(jīng)網(wǎng)絡(luò)的連接,每根線都是一個權(quán)值。
神經(jīng)網(wǎng)絡(luò)就是找正確權(quán)值,而權(quán)值被輸入、輸出所固定。
找到一組實際輸出與標準輸出誤差最小的權(quán)值,找的他最小值,即函數(shù)的極值,所以激活函數(shù)要連續(xù)。
神經(jīng)網(wǎng)絡(luò)工作步驟如下:
首先,計算個神經(jīng)元輸入和輸出,第二步計算誤差函數(shù)對各輸出層神經(jīng)元偏導(dǎo)數(shù),第三步計算誤差函數(shù)對隱藏層神經(jīng)元求偏導(dǎo)數(shù),利用前兩步的結(jié)果修正權(quán)值,這其中有個學(xué)習(xí)率來修正【學(xué)習(xí)】。計算全局誤差,決定是否滿足要求,不滿足則繼續(xù)修正。
關(guān)鍵在于有正確標準數(shù)據(jù),建立起了對應(yīng)數(shù)據(jù)、標準輸出,不滿足則繼續(xù)修正·,所以神經(jīng)網(wǎng)絡(luò)難以處理沒有預(yù)料到的情況。
應(yīng)用最多的地方:擬合,評價,分類。
總結(jié):神經(jīng)網(wǎng)絡(luò)由三層架構(gòu)組成,通過黑箱,構(gòu)建了一個x【輸入】/y【輸出】關(guān)系,黑箱進行誤差、修正誤差、修正全過程、訓(xùn)練過程。
神經(jīng)網(wǎng)絡(luò)編程:
神經(jīng)網(wǎng)絡(luò)編程案例推薦書:《MATLAB神經(jīng)網(wǎng)絡(luò)43個案例分析》
普通的分類,通常用畫線把它們區(qū)分開來,而有時候不規(guī)則,使用不了畫線
則可用數(shù)據(jù)作為輸入,類型作為輸出來分類。
神經(jīng)網(wǎng)絡(luò)還可用于評價類、預(yù)測類有輸入輸出關(guān)系的問題。
參數(shù):數(shù)量【輸入】,輸出的一般為一個參數(shù)。
在MATLAB中編碼神經(jīng)網(wǎng)絡(luò)算法,有的函數(shù)要作為激發(fā),有的要作為輸出,有的要作為學(xué)習(xí)規(guī)則,例如下面這個例子:
如何用代碼構(gòu)建神經(jīng)網(wǎng)絡(luò)?至少要滿足三層架構(gòu),否則得到的輸出難以符合期望,其中隱藏層更是必不可少,甚至不能過于簡單的。
下圖希望訓(xùn)練點,期望輸出線,得到的結(jié)果卻不擬合。
這是因為沒有訓(xùn)練。故隱藏神經(jīng)元越多越好【實際上多則慢】
大量的現(xiàn)實表明,神經(jīng)網(wǎng)絡(luò)模型適合大樣本的擬合,適合大樣本數(shù)據(jù)量。如果小樣本時用神經(jīng)網(wǎng)絡(luò)則顯的外行,反而不如最小二乘擬合有效。
總結(jié)
以上是生活随笔為你收集整理的BP神经网络模型介绍的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: JavaWeb学习过程 之c3p0的使用
- 下一篇: kernel mtd 分区与UBOOT