图˙谱˙马尔可夫过程˙聚类结构----by林达华
ps:網(wǎng)上還有林的其他幾篇博客:
Dahua?Lin推薦的幾本數(shù)學(xué)書
我的PhD生活
對數(shù)學(xué)的新思考
對Research的新思考
computer vision的尷尬
原博客地址:http://dahua.spaces.live.com/?(翻墻后顯示Live blog不再available)
?
===================================================================================
從圖說起
這里面,最簡單的一個(gè)概念就是“圖”(Graph),它用于表示事物之間的相互聯(lián)系。每個(gè)圖有一批節(jié)點(diǎn)(Node),每個(gè)節(jié)點(diǎn)表示一個(gè)對象,通過一些邊(Edge)把這些點(diǎn)連在一起,表示它們之間的關(guān)系。就這么一個(gè)簡單的概念,它對學(xué)術(shù)發(fā)展的意義可以說是無可估量的。幾乎所有領(lǐng)域研究的東西,都是存在相互聯(lián)系的,通過圖,這些聯(lián)系都具有了一個(gè)統(tǒng)一,靈活,而又強(qiáng)大的數(shù)學(xué)抽象。因此,很多領(lǐng)域的學(xué)者都對圖有著深入探討,而且某個(gè)領(lǐng)域關(guān)于圖的研究成果,可以被其它領(lǐng)域借鑒。
矩陣表示:讓代數(shù)進(jìn)入圖的世界
在數(shù)學(xué)上,一種被普遍使用的表達(dá)就是鄰接矩陣(Adjacency Matrix)。一個(gè)有N個(gè)節(jié)點(diǎn)的圖,可以用一個(gè)N x N的矩陣G表示,G(i, j)用一個(gè)值表示第i個(gè)節(jié)點(diǎn)和第j個(gè)節(jié)點(diǎn)的聯(lián)系,通常來說這個(gè)值越大它們關(guān)系越密切,這個(gè)值為0表示它們不存在直接聯(lián)系。這個(gè)表達(dá),很直接,但是非常重要,因?yàn)樗褦?shù)學(xué)上兩個(gè)非常根本的概念聯(lián)系在一起:“圖”(Graph)和“矩陣”(Matrix)。矩陣是代數(shù)學(xué)中最重要的概念,給了圖一個(gè)矩陣表達(dá),就建立了用代數(shù)方法研究圖的途徑。數(shù)學(xué)家們幾十年前開始就看到了這一點(diǎn),并且開創(chuàng)了數(shù)學(xué)上一個(gè)重要的分支——代數(shù)圖論(Algebraic Graph Theory)。
代數(shù)圖論通過圖的矩陣表達(dá)來研究圖。熟悉線性代數(shù)的朋友知道,代數(shù)中一個(gè)很重要的概念叫做“譜”(Spectrum)。一個(gè)矩陣的很多特性和它的譜結(jié)構(gòu)——就是它的特征值和特征向量是密切相關(guān)的。因此,當(dāng)我們獲得一個(gè)圖的矩陣表達(dá)之后,就可以通過研究這個(gè)矩陣的譜結(jié)構(gòu)來研究圖的特性。通常,我們會分析一個(gè)圖的鄰接矩陣(Adjacency Matrix)或者拉普拉斯矩陣(Laplace Matrix)的譜——這里多說一句,這兩種矩陣的譜結(jié)構(gòu)剛好是對稱的。
譜:“分而治之”的代數(shù)
譜,這個(gè)詞匯似乎在不少地方出現(xiàn)過,比如我們可能更多聽說的頻譜,光譜,等等。究竟什么叫“譜”呢?它的概念其實(shí)并不神秘,簡單地說,譜這個(gè)概念來自“分而治之”的策略。一個(gè)復(fù)雜的東西不好直接研究,就把它分解成簡單的分量。如果我們把一個(gè)東西看成是一些分量疊加而成,那么這些分量以及它們各自所占的比例,就叫這個(gè)東西的譜。所謂頻譜,就是把一個(gè)信號分解成多個(gè)頻率單一的分量。
矩陣的譜,就是它的特征值和特征向量,普通的線性代數(shù)課本會告訴你定義:如果A v = c v,那么c?就是A的特征值,v就叫特征向量。這僅僅是數(shù)學(xué)家發(fā)明的一種數(shù)學(xué)游戲么?——也許有些人剛學(xué)這個(gè)的時(shí)候,并一定能深入理解這么個(gè)公式代表什么。其實(shí),這里的譜,還是代表了一種分量結(jié)構(gòu),它為使用“分而治之”策略來研究矩陣的作用打開了一個(gè)重要途徑。這里我們可以把矩陣?yán)斫鉃橐粋€(gè)操作(operator),它的作用就是把一個(gè)向量變成另外一個(gè)向量:y = A x。對于某些向量,矩陣對它的作用很簡單,A v = cv,相當(dāng)于就把這個(gè)向量v?拉長了c倍。我們把這種和矩陣A能如此密切配合的向量v1, v2, ...?叫做特征向量,這個(gè)倍數(shù)c1, c2, ...叫特征值。那么來了一個(gè)新的向量x?的時(shí)候,我們就可以把x?分解為這些向量的組合,x = a1 v1 + a2 v2 + ...,那么A對x的作用就可以分解了:A x = A (a1 v1 + a2 v2 + ...) = a1 c1 v1 + a2 c2 v2 ...?所以,矩陣的譜就是用于分解一個(gè)矩陣的作用的。
這里再稍微延伸一點(diǎn)。一個(gè)向量可以看成一個(gè)關(guān)于整數(shù)的函數(shù),就是輸入i,它返回v( i )。它可以延伸為一個(gè)連續(xù)函數(shù)(一個(gè)長度無限不可數(shù)的向量,呵呵),相應(yīng)的矩陣?A?變成一個(gè)二元連續(xù)函數(shù)(面積無限大的矩陣)。這時(shí)候矩陣乘法中的求和變成了積分。同樣的,A的作用可以理解為把一個(gè)連續(xù)函數(shù)映射為另外一個(gè)連續(xù)函數(shù),這時(shí)候A不叫矩陣,通常被稱為算子。對于算子,上面的譜分析方法同樣適用(從有限到無限,在數(shù)學(xué)上還需要處理一下,不多說了)——這個(gè)就是泛函分析中的一個(gè)重要部分——譜論(Spectral Theory)。
馬爾可夫過程——從時(shí)間的角度理解圖
回到“圖”這個(gè)題目,那么圖的譜是干什么的呢?按照上面的理解,似乎是拿來分解一個(gè)圖的。這里譜的作用還是分治,但是,不是直觀的理解為把圖的大卸八塊,而是把要把在圖上運(yùn)行的過程分解成簡單的過程的疊加。如果一個(gè)圖上每個(gè)節(jié)點(diǎn)都有一個(gè)值,那么在圖上運(yùn)行的過程就是對這些值進(jìn)行更新的過程。一個(gè)簡單,大家經(jīng)常使用的過程,就是馬爾可夫過程(Markov Process)。
學(xué)過隨機(jī)過程的朋友都了解馬爾可夫過程。概念很簡單——“將來只由現(xiàn)在決定,和過去無關(guān)”。考慮一個(gè)圖,圖上每個(gè)點(diǎn)有一個(gè)值,會被不斷更新。每個(gè)點(diǎn)通過一些邊連接到其它一些點(diǎn)上,對于每個(gè)點(diǎn),這些邊的值都是正的,和為1。在圖上每次更新一個(gè)點(diǎn)的值,就是對和它相連接的點(diǎn)的值加權(quán)平均。如果圖是聯(lián)通并且非周期(數(shù)學(xué)上叫各態(tài)歷經(jīng)性, ergodicity),那么這個(gè)過程最后會收斂到一個(gè)唯一穩(wěn)定的狀態(tài)(平衡狀態(tài))。
圖上的馬爾可夫更新過程,對于很多學(xué)科有著非常重要的意義。這種數(shù)學(xué)抽象,可以用在什么地方呢?(1) Google對搜索結(jié)果的評估(PageRank)原理上依賴于這個(gè)核心過程,(2)?統(tǒng)計(jì)中一種廣泛運(yùn)用的采樣過程MCMC,其核心就是上述的轉(zhuǎn)移過程,(3)?物理上廣泛存在的擴(kuò)散過程(比如熱擴(kuò)散,流體擴(kuò)散)和上面的過程有很重要的類比,(4)?網(wǎng)絡(luò)中的信息的某些歸納與交換過程和上述過程相同?(比如Random Gossiping),還有很多。非常多的實(shí)際過程通過某種程度的簡化和近似,都可以歸結(jié)為上述過程。因此,對上面這個(gè)核心過程的研究,對于很多現(xiàn)象的理解有重要的意義。各個(gè)領(lǐng)域的科學(xué)家從本領(lǐng)域的角度出發(fā)研究這個(gè)過程,得出了很多實(shí)質(zhì)上一致的結(jié)論,并且很多都落在了圖的譜結(jié)構(gòu)的這個(gè)關(guān)鍵點(diǎn)上。
圖和譜在此聯(lián)姻
根據(jù)上面的定義,我們看到鄰接矩陣A其實(shí)就是這個(gè)馬爾可夫過程的轉(zhuǎn)移概率矩陣。我們把各個(gè)節(jié)點(diǎn)的值放在一起可以得到一個(gè)向量v,那么我們就可以獲得對這個(gè)過程的代數(shù)表示,?v(t+1) = A v(t)。穩(wěn)定的時(shí)候,v = A v。我們可以看到穩(wěn)定狀態(tài)就是A的一個(gè)特征向量,特征值就是1。這里譜的概念進(jìn)來了。我們把A的特征向量都列出來v1, v2, ...,它們有?A vi = ci vi。vi其實(shí)就是一種很特殊,但是很簡單的狀態(tài),對它每進(jìn)行一輪更新,所有節(jié)點(diǎn)的值就變成原來的ci倍。如果0 < ci < 1,那么,相當(dāng)于所有節(jié)點(diǎn)的值呈現(xiàn)指數(shù)衰減,直到大家都趨近于0。
一般情況下,我們開始于一個(gè)任意一個(gè)狀態(tài)u,它的更新過程就沒那么簡單了。我們用譜的方法來分析,把u分解成?u = v1 + c2 v2 + c3 v3 + ...?(在數(shù)學(xué)上可以嚴(yán)格證明,對于上述的轉(zhuǎn)移概率矩陣,最大的特征值就是1,這里對應(yīng)于平衡狀態(tài)v1,其它的特征狀態(tài)v2, v3, ...,?對應(yīng)于特征值1 > c2 > c3 > ... > -1)。那么,我們可以看到,當(dāng)更新進(jìn)行了t?步之后,狀態(tài)變成?u(t) = v1 + c2^t v2 + c3^t v3 + ...,我們看到,除了代表平衡狀態(tài)的分量保持不變外,其它分量隨著t?增長而指數(shù)衰減,最后,其它整個(gè)趨近于平衡狀態(tài)。
從上面的分析看到,這個(gè)過程的收斂速度,其實(shí)是和衰減得最慢的那個(gè)非平衡分量是密切相關(guān)的,它的衰減速度取決于第二大特征值c2,c2的大小越接近于1,收斂越慢,越接近于0,收斂越快。這里,我們看到了譜的意義。第一,它幫助把一個(gè)圖上運(yùn)行的馬爾可夫過程分解為多個(gè)簡單的字過程的疊加,這里面包含一個(gè)平衡過程和多個(gè)指數(shù)衰減的非平衡過程。第二,它指出平衡狀態(tài)是對應(yīng)于最大特征值1的分量,而收斂速度主要取決于第二大特征值。
我們這里知道了第二大特征值c2對于描述這個(gè)過程是個(gè)至關(guān)重要的量,究竟是越大越好,還是越小越好呢?這要看具體解決的問題。如果你要設(shè)計(jì)一個(gè)采樣過程或者更新過程,那么就要追求一個(gè)小的c2,它一方面提高過程的效率,另外一方面,使得圖的結(jié)構(gòu)改變的時(shí)候,能及時(shí)收斂,從而保證過程的穩(wěn)定。而對于網(wǎng)絡(luò)而言,小的c2有利于信息的迅速擴(kuò)散和傳播。
聚類結(jié)構(gòu)——從空間的角度理解圖
c2的大小往往取決于圖上的聚類結(jié)構(gòu)。如果圖上的點(diǎn)分成幾組,各自聚成一團(tuán),缺乏組與組之間的聯(lián)系,那么這種結(jié)構(gòu)是很不利于擴(kuò)散的。在某些情況下,甚至需要O(exp(N))的時(shí)間才能收斂。這也符合我們的直觀想象,好比兩個(gè)大水缸,它們中間的只有一根很細(xì)的水管相連,那么就需要好長時(shí)間才能達(dá)到平衡。有興趣的朋友可以就這個(gè)水缸問題推導(dǎo)一下,這個(gè)水缸系統(tǒng)的第二大特征值和水管流量與水缸的容積的比例直接相關(guān),隨比例增大而下降。
對于這個(gè)現(xiàn)象進(jìn)行推廣,數(shù)學(xué)上有一個(gè)重要的模型叫導(dǎo)率模型(Conductance)。具體的公式不說了,大體思想是,節(jié)點(diǎn)集之間的導(dǎo)通量和節(jié)點(diǎn)集大小的平均比例和第二大特征值之間存在一個(gè)單調(diào)的上下界關(guān)系。導(dǎo)率描述的是圖上的節(jié)點(diǎn)連接的空間結(jié)合,這個(gè)模型把第二特征值c2和圖的空間聚集結(jié)構(gòu)聯(lián)系在一起了。
圖上的聚類結(jié)構(gòu)越明顯,?c2越大;反過來說,c2越大,聚類的結(jié)構(gòu)越明顯,(c2 = 1)時(shí),整個(gè)圖就斷裂成非連通的兩塊或者多塊了。從這個(gè)意義上說,c2越大,越容易對這個(gè)圖上的點(diǎn)進(jìn)行聚類。機(jī)器學(xué)習(xí)中一個(gè)重要課題叫做聚類,近十年來,基于代數(shù)圖論發(fā)展出來的一種新的聚類方法,就是利用了第二大特征值對應(yīng)的譜結(jié)構(gòu),這種聚類方法叫做譜聚類(Spectral Clustering)。它在Computer Vision里面對應(yīng)于一種著名的圖像分割方法,叫做Normalized Cut。很多工作在使用這種方法。其實(shí)這種方法的成功,取決于c2的大小,也就是說取決于我們?nèi)绾螛?gòu)造出一個(gè)利于聚類的圖,另外c2的值本身也可以作為衡量聚類質(zhì)量,或者可聚類性的標(biāo)志。遺憾的是,在paper里面,使用此方法者眾,深入探討此方法的內(nèi)在特點(diǎn)者少。
歸納起來
?
?
·圖是表達(dá)事物關(guān)系和傳遞擴(kuò)散過程的重要數(shù)學(xué)抽象
·圖的矩陣表達(dá)提供了使用代數(shù)方法研究圖的途徑
·譜,作為一種重要的代數(shù)方法,其意義在于對復(fù)雜對象和過程進(jìn)行分解
·圖上的馬爾可夫更新過程是很多實(shí)際過程的一個(gè)重要抽象
·圖的譜結(jié)構(gòu)的重要意義在于通過它對馬爾可夫更新過程進(jìn)行分解分析
·圖的第一特征值對應(yīng)于馬爾可夫過程的平衡狀態(tài),第二特征值刻畫了這個(gè)過程的收斂速度(采樣的效率,擴(kuò)散和傳播速度,網(wǎng)絡(luò)的穩(wěn)定程度)。
·圖的第二特征分量與節(jié)點(diǎn)的聚類結(jié)構(gòu)密切相關(guān)。可以通過譜結(jié)構(gòu)來分析圖的聚類結(jié)構(gòu)。
?
?
馬爾可夫過程代表了一種時(shí)間結(jié)構(gòu),聚類結(jié)構(gòu)代表了一種空間結(jié)構(gòu),“譜”把它們聯(lián)系在一起了,在數(shù)學(xué)刻畫了這種時(shí)與空的深刻關(guān)系。
Markov Chain在數(shù)學(xué)上確實(shí)可以視為Linear Dynamic System的一個(gè)special case,Linear Dynamic System的很多insight其實(shí)是可以用于分析Markov process的。?
Linear System是一個(gè)非常博大的領(lǐng)域,從這個(gè)角度去看待Markov process是一個(gè)很好的角度。Linear System關(guān)注特征方程的根,并且有很多工作描述了特征根和動(dòng)態(tài)特性的關(guān)系。而Markov的第一,第二特征值問題其實(shí)是這個(gè)大問題的一個(gè)重要特例。?
把Linear control system的設(shè)計(jì)思想用于設(shè)計(jì)Markov Chain Monte Carlo,對采樣過程施加反饋式的動(dòng)態(tài)控制,應(yīng)該是在實(shí)用中有重要價(jià)值的思路。下次見到Alan Willsky的時(shí)候,我可以和他交流一下這個(gè)問題的看法。?
從另外一個(gè)角度說,Markov過程本身有一些重要的特點(diǎn),使得它值得作為一個(gè)專門的topic,獨(dú)立于Linear System進(jìn)行研究。轉(zhuǎn)移概率矩陣(或者轉(zhuǎn)移算子)的譜半徑(Spectral radius)為1,并且是自伴的(Self-adjoint),這決定了它的全部特征根都是實(shí)數(shù),而且都在[-1, 1]之間。相比于很多其它領(lǐng)域的線性系統(tǒng),這是非常特殊的。?
對于Vision還有一些AI領(lǐng)域來說,它的Markov過程還有著一些難點(diǎn):multi-mode & highly peaked.?形象的說,就是巨大的星球之間用一跟細(xì)絲來往,而且隨著系統(tǒng)的規(guī)模加大,secondary eigenvalue和1的gap以幾何級數(shù)衰減,也就是收斂時(shí)間指數(shù)增長。這在傳統(tǒng)線性動(dòng)態(tài)系統(tǒng)中是不多見的。
from:?http://blog.csdn.net/hellotruth/article/details/30750699
總結(jié)
以上是生活随笔為你收集整理的图˙谱˙马尔可夫过程˙聚类结构----by林达华的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 图像检索中为什么仍用BOW和LSH
- 下一篇: LDA入门级学习笔记