人工神经网络优化算法,进化算法优化神经网络
神經(jīng)網(wǎng)絡(luò)算法可以求最優(yōu)解嘛?
神經(jīng)網(wǎng)絡(luò)可以做優(yōu)化問題,但不一定能找到最優(yōu)解。
邏輯性的思維是指根據(jù)邏輯規(guī)則進(jìn)行推理的過程;它先將信息化成概念,并用符號表示,然后,根據(jù)符號運算按串行模式進(jìn)行邏輯推理;這一過程可以寫成串行的指令,讓計算機執(zhí)行。
直觀性的思維是將分布式存儲的信息綜合起來,忽然間產(chǎn)生的想法或解決問題的辦法。這種思維方式的根本之點在于以下兩點:1、信息是通過神經(jīng)元上的興奮模式分布存儲在網(wǎng)絡(luò)上。
2、信息處理是通過神經(jīng)元之間同時相互作用的動態(tài)過程來完成的。神經(jīng)網(wǎng)絡(luò):思維學(xué)普遍認(rèn)為,人類大腦的思維分為抽象(邏輯)思維、形象(直觀)思維和靈感(頓悟)思維三種基本方式。
人工神經(jīng)網(wǎng)絡(luò)就是模擬人思維的第二種方式。這是一個非線性動力學(xué)系統(tǒng),其特色在于信息的分布式存儲和并行協(xié)同處理。
雖然單個神經(jīng)元的結(jié)構(gòu)極其簡單,功能有限,但大量神經(jīng)元構(gòu)成的網(wǎng)絡(luò)系統(tǒng)所能實現(xiàn)的行為卻是極其豐富多彩的。
谷歌人工智能寫作項目:小發(fā)貓
計算機學(xué)習(xí)的分類
分類;數(shù)據(jù)挖掘分類是數(shù)據(jù)挖掘的重要任務(wù)之一,分類在實際應(yīng)用中有廣泛的應(yīng)用,如醫(yī)療事業(yè)、信用等級等常見的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。近年來,分類方法得到了發(fā)展,本文對這些方法進(jìn)行了歸納分析,總結(jié)了今后分類方法發(fā)展的方向。
1引言分類是學(xué)會一個分類函數(shù)或分類模型,該模型能把數(shù)據(jù)庫中的數(shù)據(jù)項映射到給定類別中的某一個。分類可用于提取描述重要數(shù)據(jù)類的模型或預(yù)測未來的數(shù)據(jù)趨勢。
分類可描述如下:輸入數(shù)據(jù),或稱訓(xùn)練集是一條條記錄組成的。每一條記錄包含若干條屬性,組成一個特征向量。訓(xùn)練集的每條記錄還有一個特定的類標(biāo)簽與之對應(yīng)。該類標(biāo)簽是系統(tǒng)的輸入,通常是以往的一些經(jīng)驗數(shù)據(jù)。
一個具體樣本的形式可為樣本向量:。在這里vi表示字段值,c表示類別。
分類作為數(shù)據(jù)挖掘的一個重要分支,在商業(yè)、醫(yī)學(xué)、軍事、體育等領(lǐng)域都有廣泛的應(yīng)用,在過去的十多年中引起很多來自不同領(lǐng)域?qū)W者的關(guān)注和研究。
除了基本的統(tǒng)計分析方法外,數(shù)據(jù)挖掘技術(shù)主要有:神經(jīng)網(wǎng)絡(luò)、決策樹、粗糙集、模糊集、貝葉斯網(wǎng)絡(luò)、遺傳算法、k近鄰分類算法與支持向量機等。
不同的分類器有不同的特點,目前有三種分類器評價或比較尺度:1)預(yù)測準(zhǔn)確度。預(yù)測準(zhǔn)確度是用得最多的一種比較尺度,特別是對于預(yù)測型分類任務(wù),目前公認(rèn)的方法是10折分層交叉驗證法;2)計算復(fù)雜度。
計算復(fù)雜度依賴于具體的實現(xiàn)細(xì)節(jié)和硬件環(huán)境,空間和時間的復(fù)雜度問題將是非常重要的一個環(huán)節(jié);3)模型描述的簡潔度。
模型描述越簡潔越受歡迎,如采用規(guī)則表示的分類器結(jié)果就較容易理解,而神經(jīng)網(wǎng)絡(luò)方法產(chǎn)生的結(jié)果就難以理解。
不同的算法有不同的特點,充分認(rèn)識各算法的優(yōu)點和存在的缺陷,掌握其適應(yīng)的環(huán)境,方便研究者明確算法的改進(jìn)和研究,本文主要對算法的研究現(xiàn)狀進(jìn)行分析和比較。
2分類方法的發(fā)展2.1決策樹的分類方法ID3算法是較早的決策樹歸納算法。當(dāng)前最有影響的決策樹算法是Quinlan于1986年提出的ID3和1993年提出的C4.5。
ID3選擇增益值最大的屬性劃分訓(xùn)練樣本,其目的是進(jìn)行分裂時系統(tǒng)的熵最小,從而提高算法的運算速度和精確度。
這種方法的優(yōu)點是描述簡單、分類速度快和產(chǎn)生的分類規(guī)則易于理解;但缺點是抗噪性差、訓(xùn)練正例和反例較難控制以及是非遞增學(xué)習(xí)算法。
C4.5是ID3的改進(jìn)算法,不僅可以處理離散值屬性,還能處理連續(xù)值屬性,但是也不能進(jìn)行增量學(xué)習(xí)。SLIQ是一個能夠處理連續(xù)及離散屬性的決策樹分類器。
該算法針對C4.5分類算法產(chǎn)生的樣本反復(fù)掃描和排序低效問題,采用了預(yù)排序和寬度優(yōu)先兩項技術(shù)。預(yù)排序技術(shù)消除了結(jié)點數(shù)據(jù)集排序,寬度優(yōu)先為決策樹中每個葉結(jié)點找到了最優(yōu)分裂標(biāo)準(zhǔn)。
這些技術(shù)結(jié)合使SLIQ能夠處理大規(guī)模的數(shù)據(jù)集,并能對具有大量的類、屬性與樣本的數(shù)據(jù)集分類;并且該算法代價不高且生成緊湊精確的樹。缺點是內(nèi)存駐留數(shù)據(jù)會隨著輸入紀(jì)錄數(shù)線性正比增大,限制了分類訓(xùn)練的數(shù)據(jù)量。
SPRINT方法完全不受內(nèi)存的限制,并且處理速度很快,且可擴展。
為了減少駐留于內(nèi)存的數(shù)據(jù)量,該算法進(jìn)一步改進(jìn)了決策樹算法的數(shù)據(jù)結(jié)構(gòu),去掉了SLIQ中需要駐留于內(nèi)存的類別列表,將類別合并到每個屬性列表中。
但是對非分裂屬性的屬性列表進(jìn)行分裂卻比較困難,因此該算法的可擴展性較差。
2.2貝葉斯分類方法貝葉斯分類是統(tǒng)計學(xué)分類方法,是利用Bayes定理來預(yù)測一個未知類別的樣本可能屬性,選擇其可能性最大的類別作為樣本的類別。
樸素貝葉斯網(wǎng)絡(luò)作為一種快速而高效的算法而受到人們的關(guān)注,但是其屬性獨立性并不符合現(xiàn)實世界,這樣的假設(shè)降低了樸素貝葉斯網(wǎng)絡(luò)的性能;但是如果考慮所有屬性之間的依賴關(guān)系,使其表示依賴關(guān)系的能力增強,允許屬性之間可以形成任意的有向圖,由于其結(jié)構(gòu)的任意性,這樣使得貝葉斯網(wǎng)絡(luò)的結(jié)構(gòu)難以學(xué)習(xí),然而,貝葉斯網(wǎng)絡(luò)的學(xué)習(xí)是一個NP-Complete問題。
目前對于貝葉斯網(wǎng)絡(luò)的改進(jìn)主要包括了:1)基于屬性選擇的方法,保證選擇的屬性之間具有最大的屬性獨立性,其中代表算法是由Langley提出SBC;2)擴展樸素貝葉斯網(wǎng)絡(luò)的結(jié)構(gòu),考慮屬性之間的依賴關(guān)系,降低屬性獨立性假設(shè),其中代表算法是由Friedman提出樹擴展的貝葉斯網(wǎng)絡(luò)TAN;3)基于實例的學(xué)習(xí)算法。
其中1)、2)的算法是根據(jù)訓(xùn)練集合構(gòu)造一個分類器,是一種積極的學(xué)習(xí)算法,3)的方法是一種消極的學(xué)習(xí)算法。
2.3粗糙集分類方法粗糙集理論是一種刻劃不完整和不確定性數(shù)據(jù)的數(shù)學(xué)工具,不需要先驗知識,能有效處理各種不完備,從中發(fā)現(xiàn)隱含的知識,并和各種分類技術(shù)相結(jié)合建立起能夠?qū)Σ煌陚鋽?shù)據(jù)進(jìn)行分類的算法。
粗糙集理論包含求取數(shù)據(jù)中最小不變集和最小規(guī)則集的理論,即約簡算法,這也是粗糙集理論在分類中的主要應(yīng)用。
2.4神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)是分類技術(shù)中重要方法之一,是大量的簡單神經(jīng)元按一定規(guī)則連接構(gòu)成的網(wǎng)絡(luò)系統(tǒng)。
它能夠模擬人類大腦的結(jié)構(gòu)和功能,采用某種學(xué)習(xí)算法從訓(xùn)練樣本中學(xué)習(xí),并將獲取的知識存儲在網(wǎng)絡(luò)各單元之間的連接權(quán)中。神經(jīng)網(wǎng)絡(luò)主要有前向神經(jīng)網(wǎng)絡(luò)、后向神經(jīng)網(wǎng)絡(luò)和自組織網(wǎng)絡(luò)。
目前神經(jīng)網(wǎng)絡(luò)分類算法研究較多集中在以BP為代表的神經(jīng)網(wǎng)絡(luò)上。文獻(xiàn)提出了粒子群優(yōu)化算法用于神經(jīng)網(wǎng)絡(luò)訓(xùn)練,在訓(xùn)練權(quán)值同時刪除冗余連接,與BP結(jié)果比較表明算法的有效性。
文獻(xiàn)提出旋轉(zhuǎn)曲面變換粒子群優(yōu)化算法的神經(jīng)網(wǎng)絡(luò),使待優(yōu)化函數(shù)跳出局部極值點,提高訓(xùn)練權(quán)值的效率。
2.5K近鄰分類算法K近鄰分類算法是最簡單有效的分類方法之一,是在多維空間中找到與未知樣本最近鄰的K個點,并根據(jù)這K個點的類別判斷未知樣本的類別。
但是有兩個最大缺點:1)由于要存儲所有的訓(xùn)練數(shù)據(jù),所以對大規(guī)模數(shù)據(jù)集進(jìn)行分類是低效的;2)分類的效果在很大程度上依賴于K值選擇的好壞。
文獻(xiàn)提出一種有效的K近鄰分類算法,利用向量方差和小波逼近系數(shù)得出兩個不等式,根據(jù)這兩個不等式,分類效率得到了提高。
文獻(xiàn)提出用粒子群優(yōu)化算法對訓(xùn)練樣本進(jìn)行有指導(dǎo)的全局隨機搜索,掠過大量不可能的K向量,該算法比KNN方法計算時間降低了70%。
2.6基于關(guān)聯(lián)規(guī)則挖掘的分類方法關(guān)聯(lián)分類方法一般由兩部組成:第一步用關(guān)聯(lián)規(guī)則挖掘算法從訓(xùn)練數(shù)據(jù)集中挖掘出所有滿足指定支持度和置信度的類關(guān)聯(lián)規(guī)則,支持度用于衡量關(guān)聯(lián)規(guī)則在整個數(shù)據(jù)集中的統(tǒng)計重要性,而置信度用于衡量關(guān)聯(lián)規(guī)則的可信程度;第二步使用啟發(fā)式方法從挖掘出的類關(guān)聯(lián)規(guī)則中挑選出一組高質(zhì)量的規(guī)則用于分類。
Agrawal等人于1993年提出了算法AIS和SETM,1994年又提出了Apriori和AprioriTid,后兩個算法和前兩個算法的不同之處在于:在對數(shù)據(jù)庫的一次遍歷中,那些候選數(shù)據(jù)項目被計數(shù)以及產(chǎn)生候選數(shù)據(jù)項目集的方法。
但前兩者方法的缺點是會導(dǎo)致許多不必要的數(shù)據(jù)項目集的生成和計數(shù)。
由于目前日常生活中如附加郵遞、目錄設(shè)計、追加銷售、倉儲規(guī)劃都用到了關(guān)聯(lián)規(guī)則,因此首先要考慮關(guān)聯(lián)規(guī)則的高效更新問題,D.w.cheung提出了增量式更新算法FUP,它的基本框架和Apriori是一致的;接著馮玉才等提出了兩種高效的增量式更新算法IUA和PIUA,主要考慮當(dāng)最小支持度和最小可信度發(fā)生變化時,當(dāng)前交易數(shù)據(jù)庫中關(guān)聯(lián)規(guī)則的更新問題。
2.7支持向量機方法的發(fā)展支持向量機方法是建立在統(tǒng)計學(xué)習(xí)理論的VC維理論和結(jié)構(gòu)風(fēng)險最小原理基礎(chǔ)之上的。根據(jù)有限樣本、在模型的復(fù)雜性和學(xué)習(xí)能力之間尋求折衷,以期獲得最好推廣能力。
它非常適合于處理非線性問題。分類問題是支持向量機最為成熟和應(yīng)用最廣的算法。但是由于SVM的訓(xùn)練時間會隨著數(shù)據(jù)集的增大而增加,所以在處理大規(guī)模數(shù)據(jù)集時,SVM往往需要較長的訓(xùn)練時間。
文獻(xiàn)提出了一種多分類問題的改進(jìn)支持向量機,將GA和SVM相結(jié)合,構(gòu)造了一種參數(shù)優(yōu)化GA-SVM,該方法在多分類非平衡問題上,提高了分類正確率,也提高了學(xué)習(xí)時間。
文獻(xiàn)提出了一種新的支持向量機增量算法,提出了一種誤分點回溯增量算法,先找出新增樣本中誤分的樣本,然后在原樣本集尋找距誤分點最近的樣本作為訓(xùn)練集的一部分,重新構(gòu)建分類器,有效保留樣本的分類,結(jié)果表明比傳統(tǒng)的SVM有更高的分類精度。
2.8基于群的分類方法這種方法可以看作是進(jìn)化算法的一個新的分支,它模擬了生物界中蟻群、魚群和鳥群在覓食或者逃避敵人時的行為,對基于群的分類方法研究,可以將這種方法分為兩類:一類是蟻群算法,另一類稱為微粒群算法。
文獻(xiàn)提出了一種基于蟻群算法的分類規(guī)則挖掘算法,針對蟻群算法計算時間長的缺點,提出了一種變異算子,用公用數(shù)據(jù)作試驗將其結(jié)果與C4.5和Ant-Miner比較,顯示變異算子節(jié)省了計算時間。
PSO是進(jìn)化計算的一個新的分支,它模擬了鳥群或魚群的行為。在優(yōu)化領(lǐng)域中,PSO可以與遺傳算法相媲美。
文獻(xiàn)提出了基于粒子群優(yōu)化算法的模式分類規(guī)則獲取,算法用于Iris數(shù)據(jù)集進(jìn)行分類規(guī)則的提取,與其他算法比較顯示不僅提高了正確率,而且較少了計算時間。
文獻(xiàn)將PSO運用于分類規(guī)則提取,對PSO進(jìn)行了改進(jìn),改進(jìn)的算法與C4.5算法比較,試驗結(jié)果表明,在預(yù)測精度和運行速度上都占優(yōu)勢。
由于PSO算法用于分類問題還處于初期,因此要將其運用到大規(guī)模的應(yīng)用中還要大量的研究。3總結(jié)分類是數(shù)據(jù)挖掘的主要研究內(nèi)容之一,本文對分類算法進(jìn)行了分析,從而便于對已有算法進(jìn)行改進(jìn)。
未來的數(shù)據(jù)分類方法研究更多地集中在智能群分類領(lǐng)域,如蟻群算法、遺傳算法、微粒群算法等分類研究上以及混合算法來進(jìn)行分類。總之,分類方法將朝著更高級、更多樣化和更加綜合化的方向發(fā)展。
參考文獻(xiàn):邵峰晶,于忠清.數(shù)據(jù)挖掘原理與算法.中國水利水電出版社,2003.陳文偉,黃金才.數(shù)據(jù)倉庫與數(shù)據(jù)挖掘.人民郵電出版社,2004.L.Jiang,H.Zhang,,EvolutionalNaiveBayes,Proceedingsofthe2005InternationalSymposiumonIntelligentComputationanditsApplication,ISICA2005,pp.344-350,ChinaUniversityofGeosciencesPress.Langley,P.,Sage,S,InductionofselectiveBayesianclassifiers,inProceedingsoftheTenthConferenceonUncertaintyinArtificialIntelligence,pp.339-406.Friedman,N.,Greiger,D.,Goldszmidt,M.,BayesianNetworkClassifiers,MachineLearning29103-130.T.Mitchell.MachineLearning.NewYork:McGraw-HillPress,1997.曾黃麟.粗糙理論以及應(yīng)用.重慶大學(xué)出版社,1996.高海兵、高亮等.基于粒子群優(yōu)化的神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法研究.電子學(xué)報,2004,9.熊勇,陳德釗,胡上序.基于旋轉(zhuǎn)曲面變換PSO算法的神經(jīng)網(wǎng)絡(luò)用于胺類有機物毒性分類.分析化學(xué)研究報告,2006,3.喬玉龍,潘正祥,孫圣和.一種改進(jìn)的快速K近鄰分類算法.電子學(xué)報,2005,6.張國英,沙蕓,江惠娜.基于粒子群優(yōu)化的快速KNN分類算法.山東大學(xué)學(xué)報,2006,6.黃景濤,馬龍華,錢積新.一種用于多分類問題的改進(jìn)支持向量機.浙江大學(xué)學(xué)報,2004,12.毛建洋,黃道.一種新的支持向量機增量算法.華東理工大學(xué)學(xué)報,2006,8.吳正龍,王儒敬等.基于蟻群算法的分類規(guī)則挖掘算法.計算機工程與應(yīng)用,2004.高亮,高海兵等.基于粒子群優(yōu)化算法的模式分類規(guī)則獲取.華中科技大學(xué)學(xué)報.2004,11.延麗萍,曾建潮.利用多群體PSO生成分類規(guī)則.計算機工程與科學(xué),2007,2.。
bp神經(jīng)網(wǎng)絡(luò)用啥算法?
自己找個例子算一下,推導(dǎo)一下,這個回答起來比較復(fù)雜神經(jīng)網(wǎng)絡(luò)對模型的表達(dá)能力依賴于優(yōu)化算法,優(yōu)化是一個不斷計算梯度并調(diào)整可學(xué)習(xí)參數(shù)的過程,Fluid中的優(yōu)化算法可參考?優(yōu)化器?。
在網(wǎng)絡(luò)的訓(xùn)練過程中,梯度計算分為兩個步驟:前向計算與?反向傳播?。前向計算會根據(jù)您搭建的網(wǎng)絡(luò)結(jié)構(gòu),將輸入單元的狀態(tài)傳遞到輸出單元。
反向傳播借助?鏈?zhǔn)椒▌t?,計算兩個或兩個以上復(fù)合函數(shù)的導(dǎo)數(shù),將輸出單元的梯度反向傳播回輸入單元,根據(jù)計算出的梯度,調(diào)整網(wǎng)絡(luò)的可學(xué)習(xí)參數(shù)。BP算法隱層的引入使網(wǎng)絡(luò)具有很大的潛力。
但正像Minskey和Papert當(dāng)時所指出的.雖然對所有那些能用簡單(無隱層)網(wǎng)結(jié)解決的問題有非常簡單的學(xué)習(xí)規(guī)則,即簡單感知器的收斂程序(主要歸功于Widrow和HMf于1960年提出的Delta規(guī)剛),BP算法但當(dāng)時并沒有找到同樣有技的含隱層的同培的學(xué)習(xí)規(guī)則。
對此問題的研究有三個基本的結(jié)果。一種是使用簡單無監(jiān)督學(xué)習(xí)規(guī)則的競爭學(xué)習(xí)方法.但它缺乏外部信息.難以確定適臺映射的隱層結(jié)構(gòu)。第二條途徑是假設(shè)一十內(nèi)部(隱層)的表示方法,這在一些先約條件下是臺理的。
另一種方法是利用統(tǒng)計手段設(shè)計一個學(xué)習(xí)過程使之能有技地實現(xiàn)適當(dāng)?shù)膬?nèi)部表示法,Hinton等人(1984年)提出的Bolzmann機是這種方法的典型例子.它要求網(wǎng)絡(luò)在兩個不同的狀態(tài)下達(dá)到平衡,并且只局限于對稱網(wǎng)絡(luò)。
Barto和他的同事(1985年)提出了另一條利用統(tǒng)計手段的學(xué)習(xí)方法。
但迄今為止最有教和最實用的方瑤是Rumelhart、Hinton和Williams(1986年)提出的一般Delta法則,即反向傳播(BP)算法。
Parter(1985年)也獨立地得出過相似的算法,他稱之為學(xué)習(xí)邏輯。此外,Lecun(1985年)也研究出大致相似的學(xué)習(xí)法則。
神經(jīng)網(wǎng)絡(luò)BP算法中,如何選擇網(wǎng)絡(luò)學(xué)習(xí)效率及閾值調(diào)整效率
遺傳算法優(yōu)化bp神經(jīng)網(wǎng)絡(luò),訓(xùn)練好后,做預(yù)測會更加準(zhǔn)確?求大神告知!
用遺傳算法優(yōu)化bp神經(jīng)網(wǎng)絡(luò),訓(xùn)練變快!是怎么回事?
總結(jié)
以上是生活随笔為你收集整理的人工神经网络优化算法,进化算法优化神经网络的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 频繁项集与关联规则Frequent It
- 下一篇: 函数 单片机glint_为什么用单片机写