ann matlab,人工神经网络ann及其matlab仿真.ppt
人工神經(jīng)網(wǎng)絡(luò)ann及其matlab仿真
人工神經(jīng)網(wǎng)絡(luò) 的研究方法及應(yīng)用劉 長 安2004. 12. 31 引 言 利用機器模仿人類的智能是長期以來人們認(rèn)識自然、改造自然和認(rèn)識自身的理想。 研究ANN目的: (1)探索和模擬人的感覺、思維和行為的規(guī)律,設(shè)計具有人類智能的計算機系統(tǒng)。 (2)探討人腦的智能活動,用物化了的智能來考察和研究人腦智能的物質(zhì)過程及其規(guī)律。 研究ANN方法 (1)生理結(jié)構(gòu)的模擬: 用仿生學(xué)觀點,探索人腦的生理結(jié)構(gòu),把對人腦的微觀結(jié)構(gòu)及其智能行為的研究結(jié)合起來即人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Netwroks,簡稱ANN)方法。 (2)宏觀功能的模擬: 從人的思維活動和智能行為的心理學(xué)特性出發(fā),利用計算機系統(tǒng)來對人腦智能進(jìn)行宏觀功能的模擬,即符號處理方法。 ANN的研究內(nèi)容 (1)理論研究:ANN模型及其學(xué)習(xí)算法,試圖從數(shù)學(xué)上描述ANN的動力學(xué)過程,建立相應(yīng)的ANN模型,在該模型的基礎(chǔ)上,對于給定的學(xué)習(xí)樣本,找出一種能以較快的速度和較高的精度調(diào)整神經(jīng)元間互連權(quán)值,使系統(tǒng)達(dá)到穩(wěn)定狀態(tài),滿足學(xué)習(xí)要求的算法。 (2)實現(xiàn)技術(shù)的研究:探討利用電子、光學(xué)、生物等技術(shù)實現(xiàn)神經(jīng)計算機的途徑。 (3)應(yīng)用的研究:探討如何應(yīng)用ANN解決實際問題,如模式識別、故障檢測、智能機器人等。 人工神經(jīng)網(wǎng)絡(luò)概述 什么是人工神經(jīng)網(wǎng)絡(luò)? T.Koholen的定義:“人工神經(jīng)網(wǎng)絡(luò)是由 具有適應(yīng)性的簡單單元組成的廣泛并行互連的網(wǎng)絡(luò),它的組織能夠模擬生物神經(jīng)系統(tǒng)對真實世界物體所作出的交互反應(yīng)。” 腦神經(jīng)信息活動的特征 (1)巨量并行性。 (2)信息處理和存儲單元結(jié)合在一起。 (3)自組織自學(xué)習(xí)功能。 ANN研究的目的和意義 (1)通過揭示物理平面與認(rèn)知平面之間的映射,了解它們相互聯(lián)系和相互作用的機理,從而揭示思維的本質(zhì),探索智能的本源。 (2)爭取構(gòu)造出盡可能與人腦具有相似功能的計算機,即ANN計算機。 (3)研究仿照腦神經(jīng)系統(tǒng)的人工神經(jīng)網(wǎng)絡(luò),將在模式識別、組合優(yōu)化和決策判斷等方面取得傳統(tǒng)計算機所難以達(dá)到的效果。 神經(jīng)網(wǎng)絡(luò)研究的發(fā)展 (1)第一次熱潮(40-60年代未) 1943年,美國心理學(xué)家W.McCulloch和數(shù)學(xué)家W.Pitts在提出了一個簡單的神經(jīng)元模型,即MP模型。1958年,F.Rosenblatt等研制出了感知機(Perceptron)。 (2)低潮(70-80年代初): (3)第二次熱潮 1982年,美國物理學(xué)家J.J.Hopfield提出Hopfield模型,它是一個互聯(lián)的非線性動力學(xué)網(wǎng)絡(luò)他解決問題的方法是一種反復(fù)運算的動態(tài)過程,這是符號邏輯處理方法所不具備的性質(zhì). 1987年首屆國際ANN大會在圣地亞哥召開,國際ANN聯(lián)合會成立,創(chuàng)辦了多種ANN國際刊物。1990年12月,北京召開首屆學(xué)術(shù)會議。 神經(jīng)網(wǎng)絡(luò)基本模型 人工神經(jīng)網(wǎng)絡(luò)研究的局限性 (1)ANN研究受到腦科學(xué)研究成果的限制。 (2)ANN缺少一個完整、成熟的理論體系。 (3)ANN研究帶有濃厚的策略和經(jīng)驗色彩。 (4)ANN與傳統(tǒng)技術(shù)的接口不成熟。 環(huán)境質(zhì)量評價 環(huán)境系統(tǒng)因素預(yù)測 環(huán)境因素定量關(guān)系模擬 構(gòu)效分析、成因分析 污染防治系統(tǒng)建模 基本BP網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu) 5.網(wǎng)絡(luò)模型的性能和泛化能力 訓(xùn)練神經(jīng)網(wǎng)絡(luò)的首要和根本任務(wù)是確保訓(xùn)練好的網(wǎng)絡(luò)模型對非訓(xùn)練樣本具有好的泛化能力(推廣性),即有效逼近樣本蘊含的內(nèi)在規(guī)律,而不是看網(wǎng)絡(luò)模型對訓(xùn)練樣本的擬合能力。從存在性結(jié)論可知,即使每個訓(xùn)練樣本的誤差都很小(可以為零),并不意味著建立的模型已逼近訓(xùn)練樣本所蘊含的規(guī)律。因此,僅給出訓(xùn)練樣本誤差(通常是指均方根誤差RSME或均方誤差、AAE或MAPE等)的大小而不給出非訓(xùn)練樣本誤差的大小是沒有任何意義的。 要分析建立的網(wǎng)絡(luò)模型對樣本所蘊含的規(guī)律的逼近情況(能力),即泛化能力,應(yīng)該也必須用非訓(xùn)練樣本(本文稱為檢驗樣本和測試樣本)誤差的大小來表示和評價,這也是之所以必須將總樣本分成訓(xùn)練樣本和非訓(xùn)練樣本而絕不能將全部樣本用于網(wǎng)絡(luò)訓(xùn)練的主要原因之一。判斷建立的模型是否已有效逼近樣本所蘊含的規(guī)律,最直接和客觀的指標(biāo)是從總樣本中隨機抽取的非訓(xùn)練樣本(檢驗樣本和測試樣本)誤差是否和訓(xùn)練樣本的誤差一樣小或稍大。非訓(xùn)練樣本誤差很接近訓(xùn)練樣本誤差或比其小,一般可認(rèn)為建立的網(wǎng)絡(luò)模型已有效逼近訓(xùn)練樣本所蘊含的規(guī)律,否則,若相差很多(如幾倍、幾十倍甚至上千倍)就說明建立的網(wǎng)絡(luò)模型并沒有有效逼近訓(xùn)練樣本所蘊含的規(guī)律,而只是在這些訓(xùn)練樣本點上逼近而已,而建立的網(wǎng)絡(luò)模型是對訓(xùn)練樣本所蘊含規(guī)律的錯誤反映。 因為訓(xùn)練樣本的誤差可以達(dá)到很小,因此
總結(jié)
以上是生活随笔為你收集整理的ann matlab,人工神经网络ann及其matlab仿真.ppt的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: c语言教材系统管理课设
- 下一篇: 利用dft的定义计算dft的matlab