【机器学习基础】数学推导+纯Python实现机器学习算法28:CRF条件随机场
Python機器學習算法實現
Author:louwill
Machine Learning Lab
? ? ?
? ? ?本文我們來看一下條件隨機場(Conditional Random Field,CRF)模型。作為概率圖模型的經典代表之一,CRF理解起來并不容易。究其緣由,還是在于CRF模型過于抽象,大量的概率公式放在一起時常讓人犯暈。還有就是即使理解了公式,很多朋友也迷惑CRF具體用在什么地方。
? ? ?所以在本文的開頭,我們先具體化一個應用場景,明確一下CRF的用途。就拿筆者來舉例:假設現在有筆者從早到晚的一系列照片,現在我們想根據這些照片對筆者日?;顒舆M行分類,比如說吃飯、上班、學習等等。要達到這個目的我們可以訓練一個圖像分類模型來對圖片所對應的活動進行分類。在訓練數據足夠的情況下,我們是可以達到這個分類目的的。但這種方法一個最大的缺陷在于忽略了筆者這些照片之間是存在時序關系的,如果能確定某一張照片的前一張或者后一張的活動狀態,那對于我們做分類工作大有幫助。而CRF模型就是一種能夠考慮相鄰時序信息的模型。比如說詞性標注就是CRF最常用的一個場景之一。另外在早期深度學習語義分割模型中,CRF也被作為的一種后處理技術來優化神經網絡的分割結果。
概率無向圖
? ? 概率圖模型是一種用圖來表示概率分布的模型。而概率無向圖模型(Probabilistic Undirected Graphical Model)也叫馬爾可夫隨機場(Markov Random Field),是一種用無向圖來表示聯合概率分布。
? ? 假設有聯合概率分布,由無向圖表示,其中圖的結點表示隨機變量,邊表示為隨機變量之間的依賴關系。如果聯合概率分布滿足成對、局部或者全局馬爾可夫性,則該聯合概率分布為概率無向圖模型。所謂馬爾可夫性,即在給定一組隨機變量的條件下,另外兩個隨機變量之間的條件獨立性。
? ? 無向圖中任何兩個結點均有邊連接的結點子集稱為團,若為的一個團,且不能再加進任何一個結點使其成為更大的團,則稱為的最大團?;谧畲髨F,概率無向圖模型的聯合概率分布可寫作圖中所有最大團上的函數的乘積形式:
其中為規范化因子:
花一點篇幅說一下概率無向圖,主要在于CRF是一種概率無向圖模型。所以它滿足概率無向圖的一些特征,包括上述最大團函數乘積條件。
CRF詳解
CRF定義
? ? CRF就是在給定隨機變量的條件下,隨機變量的馬爾可夫隨機場。假設和為隨機變量,是給定的條件下的條件概率分布。并且當該條件概率分布能夠構成一個由無向圖表示的馬爾可夫隨機場,即:
? ? 其中表示在圖中與結點有邊連接的所有結點,表示結點以外的所有結點。從CRF的定義我們大致能夠明白它就是一個滿足馬爾可夫隨機場的條件概率分布,我們以線性鏈CRF為例來看其參數化表達方法。
CRF參數化表達
? ? 假設為線性CRF,在隨機變量取值為的條件下,隨機變量取值為的條件概率具備如下形式:
其中:
上式中和為特征函數,和為對應的權值,為規范化因子,求和是在所有可能的輸出序列上進行的。為了加深對上述式子的理解,我們以一個例子來說明:假設我們要進行一個詞性標注任務,那么上式中就是輸入的整個句子,為當前位置,和為當前位置和前一位置的標簽,以上四項作為特征函數的輸入。其中為轉移特征函數,為狀態特征函數。當滿足特征條件時特征函數取值為1,不滿足時取值為0。
線性CRF的三個問題
? ? 線性CRF需要解決三個核心問題,包括基于前向-后向的概率估計算法、基于極大似然和牛頓優化的學習算法以及基于維特比算法的預測算法。
前向-后向算法
? ? 所謂CRF的概率估計算法,即給定條件概率分布和輸入輸出序列和時,計算條件概率和以及對應的期望。
? ? 要計算條件概率和,我們可以使用前向-后向算法。先看前向計算過程。定義表示當序列位置的標記為時,在位置之前的部分標記序列的非規范化概率,下式定義了給定下從轉移到的非規范化概率:
? ? 相應的可以得到序列位置的標記為時,在位置之前的部分標記序列的非規范化概率的遞推公式:
在序列起點處定義:
假設可能標記的總數為,則的取值有個,用表示這個值組成的前向向量如下:
用矩陣表示由構成的階矩陣:
最后的遞推公式可以由矩陣表達為:
同理可定義后向計算過程,即定義為序列位置的標記時,在位置之后的部分標記序列的非規范化概率的遞推公式:
在序列終點處定義:
其向量化表達為:,而規范化因子為:
最后的向量表達為:
。
按照前向-后向算法,我們可計算標記序列在位置是標記的條件概率和在位置與是標記和的條件概率:
CRF模型學習算法
? ? 線性CRF是如何訓練的呢?在給定訓練數據集和對應標記序列以及個特征函數,需要學習的包括模型參數和條件概率,且條件概率和模型參數滿足如下關系:
? ? 這個式子是不是有點眼熟?其實就是softmax表達式。當訓練得到模型參數之后,我們就可以根據上式計算出條件概率。
? ? ?線性CRF的學習模型實際上是定義在時序數據上的對數線形模型,其學習方法包括極大似然估計和正則化的極大似然估計方法。模型優化算法包括梯度下降法、牛頓法、擬牛頓法以及迭代尺度法等。具體的優化算法求解這里略過。
CRF模型預測算法
? ? CRF的預測問題是給定條件隨機場和輸入序列,求條件概率最大的輸出序列,即要對觀測序列進行標注。CRF使用維特比(Viterbi)算法進行標注預測。
我們先看一下維特比算法的輸入輸出和基本流程。維特比算法的輸入是模型的特征向量和權值向量以及觀測序列,輸出為最優路徑。其算法流程如下:
初始化
遞推。對于,有:
終止:,
返回路徑:
按照上述維特比算法可球的最優路徑。
? ? ?可以看到維特比算法本質上是一種求最優路徑的動態規劃算法,但上述流程理解起來過于抽象,是否有更加具體的方式來理解呢。
? ? ?假設我們要在下述有向圖中找出一條從到的最短路徑。最簡單粗暴的方法莫過于遍歷所有路徑然后比較一條最短的,但這么做時間復雜度太高。而維特比算法就是一種可以高效尋找最優路徑的算法。
? ? 我們將該圖從左至右來看。先看起點到第一列的可能路徑有三種:、、。僅從第一列我們尚不能確定某一段就是最終最優路徑中的某一段,所以我們接著看列。經過的所有路徑有三條:、、,比較這三個路徑,選擇一個最短的,因為其他兩條不再可能是最優路徑,我們可以將其他兩條路徑刪掉。假設這里我們保留的是最短路徑。同理我們再對和進行路徑比較,假設經過和保留下來的最短路徑分別為和。最后我們到達終點點,將上述三條路徑鏈接點后分別比較、和,假設路徑最短,那么它就是最優路徑。從這個過程我們可以體會到維特比算法是一個典型的動態規劃算法。
CRF實現
實現一個完整的CRF模型包括權重初始化、參數化表達、概率得分計算以及維特比解碼算法等模塊。完整的CRF實現參考:
https://github.com/lancifollia/crf/blob/master/crf.py
下面給出維特比算法的一個參考實現代碼。
import numpy as npdef viterbi(y, A, B, Pi=None):"""Return the MAP estimate of state trajectory of Hidden Markov Model.Parameters----------y : array (T,)Observation state sequence. int dtype.A : array (K, K)State transition matrix. See HiddenMarkovModel.state_transition fordetails.B : array (K, M)Emission matrix. See HiddenMarkovModel.emission for details.Pi: optional, (K,)Initial state probabilities: Pi[i] is the probability x[0] == i. IfNone, uniform initial distribution is assumed (Pi[:] == 1/K).Returns-------x : array (T,)Maximum a posteriori probability estimate of hidden state trajectory,conditioned on observation sequence y under the model parameters A, B,Pi.T1: array (K, T)the probability of the most likely path so farT2: array (K, T)the x_j-1 of the most likely path so far"""# Cardinality of the state spaceK = A.shape[0]# Initialize the priors with default (uniform dist) if not given by callerPi = Pi if Pi is not None else np.full(K, 1 / K)T = len(y)T1 = np.empty((K, T), 'd')T2 = np.empty((K, T), 'B')# Initilaize the tracking tables from first observationT1[:, 0] = Pi * B[:, y[0]]T2[:, 0] = 0# Iterate throught the observations updating the tracking tablesfor i in range(1, T):T1[:, i] = np.max(T1[:, i - 1] * A.T * B[np.newaxis, :, y[i]].T, 1)T2[:, i] = np.argmax(T1[:, i - 1] * A.T, 1)# Build the output, optimal model trajectoryx = np.empty(T, 'B')x[-1] = np.argmax(T1[:, T - 1])for i in reversed(range(1, T)):x[i - 1] = T2[x[i], i]return x, T1, T2參考資料:
李航 統計學習方法 第二版
https://www.zhihu.com/question/20136144/answer/763021768
https://stackoverflow.com/questions/9729968/python-implementation-of-viterbi-algorithm/9730083
https://github.com/lancifollia/crf/blob/master/crf.py
往期精彩:
數學推導+純Python實現機器學習算法27:EM算法
數學推導+純Python實現機器學習算法26:隨機森林
數學推導+純Python實現機器學習算法25:CatBoost
數學推導+純Python實現機器學習算法24:LightGBM
數學推導+純Python實現機器學習算法23:kmeans聚類
數學推導+純Python實現機器學習算法22:最大熵模型
數學推導+純Python實現機器學習算法21:馬爾科夫鏈蒙特卡洛
數學推導+純Python實現機器學習算法20:LDA線性判別分析
數學推導+純Python實現機器學習算法19:PCA降維
數學推導+純Python實現機器學習算法18:奇異值分解SVD
數學推導+純Python實現機器學習算法17:XGBoost
數學推導+純Python實現機器學習算法16:Adaboost
數學推導+純Python實現機器學習算法15:GBDT
數學推導+純Python實現機器學習算法14:Ridge嶺回歸
數學推導+純Python實現機器學習算法13:Lasso回歸
數學推導+純Python實現機器學習算法12:貝葉斯網絡
數學推導+純Python實現機器學習算法11:樸素貝葉斯
數學推導+純Python實現機器學習算法10:線性不可分支持向量機
數學推導+純Python實現機器學習算法8-9:線性可分支持向量機和線性支持向量機
數學推導+純Python實現機器學習算法7:神經網絡
數學推導+純Python實現機器學習算法6:感知機
數學推導+純Python實現機器學習算法5:決策樹之CART算法
數學推導+純Python實現機器學習算法4:決策樹之ID3算法
數學推導+純Python實現機器學習算法3:k近鄰
數學推導+純Python實現機器學習算法2:邏輯回歸
數學推導+純Python實現機器學習算法1:線性回歸
往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯《統計學習方法》的代碼復現專輯 AI基礎下載機器學習的數學基礎專輯獲取一折本站知識星球優惠券,復制鏈接直接打開:https://t.zsxq.com/yFQV7am本站qq群1003271085。加入微信群請掃碼進群:
總結
以上是生活随笔為你收集整理的【机器学习基础】数学推导+纯Python实现机器学习算法28:CRF条件随机场的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【深度学习】循环神经网络(RNN)简易教
- 下一篇: 太强了! 李宏毅:1 天搞懂深度学习,我