SVM的发展和研究热点
支持向量機(jī)的發(fā)展
自從90年代初經(jīng)典SVM的提出,由于其完整的理論框架和在實(shí)際應(yīng)用中取得的很多好的效果,在機(jī)器學(xué)習(xí)領(lǐng)域受到了廣泛的重視。其理論和應(yīng)用在橫向和縱向上都有了發(fā)展。
?
理論上:1.模糊支持向量機(jī),引入樣本對(duì)類別的隸屬度函數(shù),這樣每個(gè)樣本對(duì)于類別的影響是不同的,這種理論的應(yīng)用提高了SVM的抗噪聲的能力,尤其適合在未能完全揭示輸入樣本特性的情況下。
2.最小二乘支持向量機(jī)。這種方法是在1999年提出,經(jīng)過這幾年的發(fā)展,已經(jīng)應(yīng)用要很多相關(guān)的領(lǐng)域。研究的問題已經(jīng)推廣到:對(duì)于大規(guī)模數(shù)據(jù)集的處理;處理數(shù)據(jù)的魯棒性;參數(shù)調(diào)節(jié)和選擇問題;訓(xùn)練和仿真。
3.加權(quán)支持向量機(jī)(有偏樣本的加權(quán),有偏風(fēng)險(xiǎn)加權(quán))。
4.主動(dòng)學(xué)習(xí)的支持向量機(jī)。主動(dòng)學(xué)習(xí)在學(xué)習(xí)過程中可以根據(jù)學(xué)習(xí)進(jìn)程,選擇最有利于分類器性能的樣本來進(jìn)一步訓(xùn)練分類器,特能有效地減少評(píng)價(jià)樣本的數(shù)量。也就是通過某種標(biāo)準(zhǔn)對(duì)樣本對(duì)分類的有效性進(jìn)行排序,然后選擇有效樣本來訓(xùn)練支持向量機(jī)。
5.粗糙集與支持向量機(jī)的結(jié)合。首先利用粗糙集理論對(duì)數(shù)據(jù)的屬性進(jìn)行約簡,能在某種程度上減少支持向量機(jī)求解計(jì)算量。
6.基于決策樹的支持向量機(jī)。對(duì)于多類問題,采用二岔樹將要分類的樣本集構(gòu)造出一系列的兩類問題,每個(gè)兩類構(gòu)造一個(gè)SVM。
7.分級(jí)聚類的支持向量機(jī)。基于分級(jí)聚類和決策樹思想構(gòu)建多類svm,使用分級(jí)聚類的方法,可以先把n-1個(gè)距離較近的類別結(jié)合起來,暫時(shí)看作一類,把剩下的一類作為單獨(dú)的一類,用svm分類,分類后的下一步不再考慮這單獨(dú)的一類,而只研究所合并的n-1類,再依次下去。
8.算法上的提高。
l???????? Vapnik在95年提出了一種稱為”chunking”的塊算法,即如果刪除矩陣中對(duì)應(yīng)Lagrange乘數(shù)為0的行和列,將不會(huì)影響最終結(jié)果。
l???????? Osuna提出了一種分解算法,應(yīng)用于人臉識(shí)別領(lǐng)域。
l???????? Joachims在1998年將Osuna提出的分解策略推廣到解決大型SVM學(xué)習(xí)的算法
l???????? Platt于1998年提出了序貫最小優(yōu)化(Sequential Minimal Optimization)每次的工作集中只有2個(gè)樣本。
???????????? 9.核函數(shù)的構(gòu)造和參數(shù)的選擇理論研究。基于各個(gè)不同的應(yīng)用領(lǐng)域,可以構(gòu)造不同的核函數(shù),能夠或多或少的引入領(lǐng)域知識(shí)。現(xiàn)在核函數(shù)廣泛應(yīng)用的類型有:多項(xiàng)式逼近、貝葉斯分類器、徑向基函數(shù)、多層感知器。參數(shù)的選擇現(xiàn)在利用交叉驗(yàn)證的方法來確認(rèn)。
?10.支持向量機(jī)從兩類問題向多類問題的推廣:
n???????? Weston在1998年提出的多類算法為代表。在經(jīng)典svm理論的基礎(chǔ)上,直接在目標(biāo)函數(shù)上進(jìn)行改進(jìn),重新構(gòu)造多值分類模型,建立k分類支持向量機(jī)。通過sv方法對(duì)新模型的目標(biāo)函數(shù)進(jìn)行優(yōu)化,實(shí)現(xiàn)多值分類。這類算法選擇的目標(biāo)函數(shù)十分復(fù)雜,變量數(shù)目過多,計(jì)算復(fù)雜度也非常高,實(shí)現(xiàn)困難,所以只在小型問題的求解中才能使用。Weston,Multi-class support vector machines
n???????? 一對(duì)多(one-against-rest)----- Vapnik提出的,k類---k個(gè)分類器,第m個(gè)分類器將第m類與其余的類分開,也就是說將第m類重新標(biāo)號(hào)為1,其他類標(biāo)號(hào)為-1。完成這個(gè)過程需要計(jì)算k個(gè)二次規(guī)劃,根據(jù)標(biāo)號(hào)將每個(gè)樣本分開,最后輸出的是兩類分類器輸出為最大的那一類。不足:容易產(chǎn)生屬于多類別的點(diǎn)(多個(gè)1)和沒有被分類的點(diǎn)(標(biāo)號(hào)均為-1)--不對(duì),訓(xùn)練樣本數(shù)據(jù)大,訓(xùn)練困難,推廣誤差無界.
n???????? 一對(duì)一(one-against-one)---Kressel 對(duì)于任意兩個(gè)分類,構(gòu)造一個(gè)分類器,僅識(shí)別這兩個(gè)分類,完成這個(gè)過程需要k(k-1)/2個(gè)分類器,計(jì)算量是非常龐大的。對(duì)于每一個(gè)樣本,根據(jù)每一個(gè)分類器的分類結(jié)果,看屬于哪個(gè)類別的次數(shù)多,最終就屬于哪一類(組合這些兩類分類器并使用投票法,得票最多的類為樣本點(diǎn)所屬的類)。不足:如果單個(gè)兩類分類器不規(guī)范化,則整個(gè)N類分類器將趨向于過學(xué)習(xí);推廣誤差無界;分類器的數(shù)目K隨類數(shù)急劇增加,導(dǎo)致在決策時(shí)速度很慢。
n???????? 層(數(shù)分類方法),是對(duì)一對(duì)一方法的改進(jìn),將k個(gè)分類合并為兩個(gè)大類,每個(gè)大類里面再分成兩個(gè)子類,如此下去,直到最基本的k個(gè)分類,這樣形成不同的層次,每個(gè)層次都用svm來進(jìn)行分類------1對(duì)r-1法,構(gòu)建k-1個(gè)分類器,不存在拒絕分類區(qū)。
?
?應(yīng)用上:人臉檢測,汽輪發(fā)電機(jī)組的故障診斷,分類,回歸,聚類,時(shí)間序列預(yù)測,系統(tǒng)辨識(shí),金融工程,生物醫(yī)藥信號(hào)處理,數(shù)據(jù)挖掘,生物信息,文本挖掘,自適應(yīng)信號(hào)處理,剪接位點(diǎn)識(shí)別,基于支持向量機(jī)的數(shù)據(jù)庫學(xué)習(xí)算法,手寫體相似字識(shí)別,支持向量機(jī)函數(shù)擬合在分形插值中的應(yīng)用,基于支持向量機(jī)的慣導(dǎo)初始對(duì)準(zhǔn)系統(tǒng),巖爆預(yù)測的支持向量機(jī),缺陷識(shí)別,計(jì)算機(jī)鍵盤用戶身份驗(yàn)證,視頻字幕自動(dòng)定位于提取,說話人的確認(rèn),等等。
?
主要研究熱點(diǎn)
從上面的發(fā)展中,我們可以總結(jié)出,目前支持向量機(jī)有著幾方面的研究熱點(diǎn):核函數(shù)的構(gòu)造和參數(shù)的選擇;支持向量機(jī)從兩類問題向多類問題的推廣;更多的應(yīng)用領(lǐng)域的推廣;與目前其它機(jī)器學(xué)習(xí)方法的融合;與數(shù)據(jù)預(yù)處理(樣本的重要度,屬性的重要度,特征選擇等)方面方法的結(jié)合,將數(shù)據(jù)中脫離領(lǐng)域知識(shí)的信息,即數(shù)據(jù)本身的性質(zhì)融入支持向量機(jī)的算法中從而產(chǎn)生新的算法;支持向量機(jī)訓(xùn)練算法的探索。
?
原文來自:http://blog.sina.com.cn/s/blog_537f95ab010003h3.html
總結(jié)
以上是生活随笔為你收集整理的SVM的发展和研究热点的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 空间数据挖掘技术理论及方法
- 下一篇: 安装vs2008中文时出现错误Write