日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

马尔科夫蒙特卡罗方法

發布時間:2023/12/20 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 马尔科夫蒙特卡罗方法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

  • 什么是采樣
  • 為什么要采樣
  • 采樣的方法
    • 蒙特卡羅采樣
    • 重要采樣
    • 馬爾科夫鏈蒙特卡羅方法(MCMC)
      • 馬氏過程相關概念和定理
      • MCMC算法
      • Metropolis-Hastings算法
      • MCMC方法的問題
    • 吉布斯采樣(Gibbs)
  • 參考文獻

什么是采樣

我們知道了一個變量的分布,要生成一批樣本服從這個分布,這個過程就叫采樣。比如在信號處理領域,采樣是將信號從連續時間域上的模擬信號轉換到離散時間域上的離散信號的過程。

為什么要采樣

有許多原因需要我們從某個分布中采樣。比如獲取離散信號,比如數據挖掘中進行模型匹配,比如機器學習中估計某個函數在某個分布上的期望,比如以較小的代價近似許多項的和或者某個積分。
在許多情況下,采樣的目標就是抽樣,比如對大數據集中獲取合適的子集。

采樣的方法

蒙特卡羅采樣

蒙特卡羅方法主要是找到滿足分布的隨機變量,對該隨機變量隨意取值生成若干樣本。當樣本足夠多時,樣本分布近似于目標分布。
當我們無法精確計算和或積分時,可以采用蒙特卡羅方法來近似。這種想法是把和或積分視作某個分布下的期望,然后通過估計對應的平均值來近似這個期望。令
s=∑xp(x)f(x)=Ep[f(x)]s=\sum\limits_xp(x)f(x)=E_p[f(x)]s=x?p(x)f(x)=Ep?[f(x)]
或者
s=∫p(x)f(x)dx=Ep[f(x)]s=\int p(x)f(x)dx=E_p[f(x)]s=p(x)f(x)dx=Ep?[f(x)]
其中p(x)p(x)p(x)為概率分布函數(求和)或者概率密度函數(積分)
我們可以通過從ppp中抽取n個樣本x(1),...,x(n)x^{(1)},...,x^{(n)}x(1),...,x(n)來近似s并得到一個經驗平均值
sn=1n∑i=1nf(x(i))s_n=\frac{1}{n}\sum\limits_{i=1}^nf(x^{(i)})sn?=n1?i=1n?f(x(i))
顯然這是一個無偏估計,且由大數定律,lim?n→∞sn=s\lim\limits_{n\rightarrow\infty}s_n=snlim?sn?=s.
由中心極限定理有sn~N(s,Var[f(x)]n)s_n\sim\mathcal{N}(s,\frac{Var[f(x)]}{n})sn?N(s,nVar[f(x)]?),由此可以估計sns_nsn?的置信區間。

重要采樣

蒙特卡羅采樣中假設了可以從基準分布p(x)p(x)p(x)中輕易采樣,當無法輕易采樣時,可以換一個能夠容易采樣的分布,如上例中,p(x)f(x)=q(x)p(x)f(x)q(x)p(x)f(x)=q(x)\frac{p(x)f(x)}{q(x)}p(x)f(x)=q(x)q(x)p(x)f(x)?,由此可以從qqq分布中采樣,然后估計pfq\frac{pf}{q}qpf?的期望。這樣的轉化顯然不唯一,因此我們可以尋找最優的分布q?q^*q?。這樣的分布可以容易的推導出來。令
sq=1n∑i=1,x(i)~qnp(x(i))f(x(i))q(x(i))s_q=\frac{1}{n}\sum\limits_{i=1,x^{(i)}\sim q}^n\frac{p(x^{(i)})f(x^{(i)})}{q(x^{(i)})}sq?=n1?i=1,x(i)qn?q(x(i))p(x(i))f(x(i))?
計算得:
E[sq]=s,Var[sq]=Var[p(x)f(x)q(x)]/n\mathbb{E}[s_q]=s,Var[s_q]=Var[\frac{p(x)f(x)}{q(x)}]/nE[sq?]=s,Var[sq?]=Var[q(x)p(x)f(x)?]/n
可以發現估計的期望與qqq分布無關。我們希望方差取最小值,則qqq需要滿足:
q?(x)=p(x)∣f(x)∣Zq^*(x)=\frac{p(x)|f(x)|}{Z}q?(x)=Zp(x)f(x)?
這里ZZZ是歸一化常數,此時Var[sq]=0Var[s_q]=0Var[sq?]=0.

一個好的qqq分布的選擇可以顯著地提高蒙特卡羅估計的效率,而一個糟糕的qqq分布則會使效率更糟糕。q分布通常會取一些簡單常用的分布使得我們能夠從qqq分布中容易的采樣,但當xxx是高維數據時,qqq分布的簡單性使得它很難和pppp∣f∣p|f|pf相匹配。

馬爾科夫鏈蒙特卡羅方法(MCMC)

馬爾科夫蒙特卡羅方法的基本思想是構造一個馬氏鏈{Xn:n?0}\{X_n:n\geqslant0\}{Xn?:n?0},使目標分布作為該馬氏鏈的不變分布,再利用馬氏鏈的極限理論(遍歷定理),用XnX_nXn?代替目標分布。

馬氏過程相關概念和定理

定義1 轉移矩陣
設狀態空間EEE上的矩陣P=(p(i,j):i,j∈E)P=(p(i,j):i,j\in E)P=(p(i,j):i,jE)為轉移矩陣,滿足一下性質:
(1) 對任何i,j∈Ei,j\in Ei,jE,有p(i,j)?0p(i,j)\geqslant 0p(i,j)?0
(2) 對任何i∈Ei\in EiE,有∑j∈Ep(i,j)=1\sum\limits_{j\in E}p(i,j)=1jE?p(i,j)=1

定義2 馬氏鏈
對于隨機過程X={X0,X1,X2,...,Xn,...}X=\{X_0,X_1,X_2,...,X_n,...\}X={X0?,X1?,X2?,...,Xn?,...}。我們稱XXX是以PPP為轉移矩陣的馬氏鏈,當且僅當P(Xn+1=j∣X0=i0,X1=i1,...,Xn=in)=p(in,j)P(X_{n+1}=j|X_0=i_0,X_1=i_1,...,X_n=i_n)=p(i_n,j)P(Xn+1?=jX0?=i0?,X1?=i1?,...,Xn?=in?)=p(in?,j)
由此可以得到P(Xn+1=j∣X0=i0,X1=i1,...,Xn=in)=p(in,j)=P(Xn+1=j∣Xn=in)P(X_{n+1}=j|X_0=i_0,X_1=i_1,...,X_n=i_n)=p(i_n,j)=P(X_{n+1}=j|X_n=i_n)P(Xn+1?=jX0?=i0?,X1?=i1?,...,Xn?=in?)=p(in?,j)=P(Xn+1?=jXn?=in?)
特別地,利用轉移矩陣和初始分布可以給出馬氏鏈的有限維分布的表示。

定義3 平穩分布(不變分布)
對于以PPP為轉移矩陣的馬氏鏈XXX,如果概率分布η=(ηi:i∈E)\eta=(\eta_i:i\in E)η=(ηi?:iE)滿足∑i∈Eηipi,j=ηj,j∈E\sum\limits_{i\in E}\eta_ip_{i,j}=\eta_j,j\in EiE?ηi?pi,j?=ηj?,jE,則稱η\etaηPPPXXX的平穩分布(不變分布)。
定義4 可逆分布
對于以PPP為轉移矩陣的馬氏鏈XXX,如果概率分布η=(ηi:i∈E)\eta=(\eta_i:i\in E)η=(ηi?:iE)滿足ηipi,j=ηjpj,i,i,j∈E\eta_ip_{i,j}=\eta_jp_{j,i},i,j\in Eηi?pi,j?=ηj?pj,i?,i,jE,則稱η\etaηPPPXXX的可逆分布。
顯然可逆分布一定是平穩分布。

如果馬氏鏈X以PPP為轉移矩陣,以平穩分布η\etaη為初始分布,則稱馬氏鏈XXX是平穩的。
如果馬氏鏈X以PPP為轉移矩陣,以可逆分布η\etaη為初始分布,則稱馬氏鏈XXX是可逆的,也叫細致平衡的。

定理1(弱遍歷定理)
設轉移矩陣為PPP,令L(n)=1n∑n=0nP(n)L^{(n)}=\frac{1}{n}\sum\limits_{n=0}^{n}P^{(n)}L(n)=n1?n=0n?P(n)。則lim?n→∞L(n)=L\lim\limits_{n\to\infty}L^{(n)}=Lnlim?L(n)=L存在且滿足PL=LP=L=L2PL=LP=L=L^2PL=LP=L=L2

定理2
PPP是馬氏鏈的轉移矩陣,假定PPP不可約正常返,則PPP有唯一不變分布,并且轉移概率的平均極限分布是馬爾可夫鏈的平穩分布。

事實上
lim?n→∞L(n)=L=(ππ...)\lim\limits_{n\to\infty}L^{(n)}=L=\begin{pmatrix}\pi\\\pi\\.\\.\\.\end{pmatrix}nlim?L(n)=L=???????ππ...????????
π\piπ為行向量且任意元素都大于0,此時π\piπPPP的唯一不變分布。

定理3
PPP不可約,正常返,非周期,則有lim?n→∞=P(n)=L\lim\limits_{n\to\infty}=P^{(n)}=Lnlim?=P(n)=L

MCMC算法

有了這些理論就可以給出馬爾科夫蒙特卡羅法的采樣過程了。先假設存在轉移矩陣PPP,目標分布就是PPP的不變分布。
先從初始分布從采一個樣本x(0)x^{(0)}x(0),這個初始分布可以是狀態空間上的任意分布。接著從利用轉移矩陣得到在x(0)x^{(0)}x(0)條件下的分布P(?∣X0=x(0))\mathbf P(\cdot|X_0=x^{(0)})P(?X0?=x(0)),在此分布下采樣得到x(1)x^{(1)}x(1),不斷重復上述過程,可以發現每個時刻在這個馬爾可夫鏈上進行隨機游走一次,就可以得到一個樣本。

# 算法1:生成一條馬氏鏈軌跡 Proceduce MCMC_Sample(E #狀態空間P_0 #初始分布P #馬爾科夫轉移模型n #執行步數 ) 1 Sample x^(0)~P_0 2 for t=1,2,...,n 3 Sample x^(t)~P(·|x^(t-1)) 4 return x^(0),x^(1),...,x^(n)

在算法執行m(<n)m(<n)m(<n)步后,可以認為得到的樣本集合{x(m+1),x(m+2),...x(n)}\{x^{(m+1)},x^{(m+2)},...x^{(n)}\}{x(m+1),x(m+2),...x(n)}為所需要的樣本。前mmm步稱為混合期
現在我們可以得到對sss的估計sM=1n?m∑i=m+1nf(x(i))s_M=\frac{1}{n-m}\sum\limits_{i=m+1}^nf(x^{(i)})sM?=n?m1?i=m+1n?f(x(i))

Metropolis-Hastings算法

在MCMC算法中,我們假設了已經有這樣的轉移矩陣PPP,但事實上這樣的矩陣很難直接找到。而Metropolis-Hastings算法就是用一種簡單的方法構造出來轉移矩陣PPP,從而能夠應用MCMC算法采樣。

注意到細致平衡的分布也是不變分布,由此可以構造一個符合條件的可逆過程的轉移矩陣。設目標分布為π\piπ,將目標分布設為轉移矩陣PPP的不變分布。首先令QQQ是任意一個取正整數的特定不可約馬爾科夫轉移概率矩陣,以q(i,j)q(i,j)q(i,j)表示QQQiiijjj列的元素。設目標分布為π\piπ現按照細致平衡的條件,對任意i≠ji\neq ji?=j,有
π(i)q(i,j)a(i,j)=π(j)q(j,i)a(j,i)\pi(i)q(i,j)a(i,j)=\pi(j)q(j,i)a(j,i)π(i)q(i,j)a(i,j)=π(j)q(j,i)a(j,i)
其中a(i,j)a(i,j)a(i,j)為配比出來的系數,于是可令a(i,j)=min?(π(i)q(i,j)π(j)q(j,i),1)a(i,j)=\min(\frac{\pi(i)q(i,j)}{\pi(j)q(j,i)},1)a(i,j)=min(π(j)q(j,i)π(i)q(i,j)?,1)
所以可設p(i,j)=q(i,j)a(i,j)p(i,j)=q(i,j)a(i,j)p(i,j)=q(i,j)a(i,j),為保持轉移矩陣的性質,得到p(i,i)=q(i,i)+∑k≠iq(i,k)(1?a(i,k))p(i,i)=q(i,i)+\sum\limits_{k\neq i}q(i,k)(1-a(i,k))p(i,i)=q(i,i)+k?=i?q(i,k)(1?a(i,k)),最后設P=(p(i,j))P=(p(i,j))P=(p(i,j)),則PPP即為所需的轉移矩陣。

# 算法2:M-H算法 Proceduce MCMC_Sample(E, P_0, Q, a, n) 1 Sample x^(0)~P_0 2 for t=1,2,...,n 3 Sample x*~Q(·|x^(t-1)) 4 Sample u~U[0,1] 5 if u<a(x^(t-1),x*) then 6 x^(t) = x* 7 else 8 x(t) = x(t-1) 9 return x^(0),x^(1),...,x^(n)

MCMC方法的問題

  • 采集的相鄰樣本可能含有相關性
    一種解決辦法是每隔n個樣本返回一個樣本,但這樣不僅提高了采樣時的計算代價,而且也沒有完全解除掉相關性;另一種解決辦法是同時并行多個馬氏鏈,每隔馬氏鏈只采集一個樣本。這兩種方法是兩個極端,更多從業者選擇馬氏鏈和小批量中的樣本數接近,然后再用這些馬氏鏈抽取所需要的樣本。
  • 無法預測混合期
    檢測一個馬爾科夫鏈是否達到了平衡很困難,只能粗略的估計這段時間是否是足夠的。由此可見,此算法的關鍵就是能否針對具體的π\piπ找到一個能夠快速收斂的馬氏鏈,收斂速度的快慢決定了算法的優劣。
    由不變分布方程πP=π\pi P = \piπP=π以及不變分布的唯一性知,PPP的特征值中有且只有一個111,且π\piπ是對應的唯一特征向量。注意到PPP是不可約的,則由Perron-Frobenius定理可以保證這個矩陣最大特征值為1.這就導致了其他特征值都隨時間變化趨向于0,那么第二大特征值將決定了收斂速度,也就是混合期的大小。
    注: 在M-H算法中,預設分布的標準差也影響著混合時間。如果標準差過小,則采集的樣本多集中在概率大的周圍;若標準差過大,則被拒絕的概率將變大,混合時間將變長。
  • 吉布斯采樣(Gibbs)

    在計算過程中常常會遇到復雜的聯合分布,這增加了計算的復雜度。事實上不同分量之間可能存在相關性,利用概率圖模型,將聯合分布分解成多個條件分布,可以減少狀態空間的參數。在采樣過程中,將高維總體的采樣,化為一系列一維分布的取樣,這就是Gibbs采樣法的要義。

    # 算法3:Gibbs算法 Proceduce MCMC_Sample(E, P_0, P, T) 1 Sample x^(0)~P_0 2 for t=1,2,...,T 3 Sample x_1^(t) ~ P(x_1|x_2^(t-1), x_3^(t-1),...,x_n^(t-1)) 4 Sample x_2^(t) ~ P(x_2|x_1^(t), x_3^(t-1),...,x_n^(t-1)) 5 ... 6 Sample x_j^(t) ~ P(x_j|x_1^(t),..., x_(j-1)^(t),x_(j+1)^(t-1),...,x_n^(t-1)) 7 ... 8 Sample x_n^(t) ~ P(x_n|x_1^(t), x_2^(t),...,x_(n-1)^(t)) 9 return x^(0),x^(1),...,x^(n)

    參考文獻

  • 古德費洛, 本吉奧, 庫維爾, 趙申劍, 黎彧君, and 符天凡. 深度學習. 北京: 人民郵電出版社, 2017.
  • 錢敏平. 應用隨機過程. 北京: 高等教育出版社, 2011.
  • 羅斯, and 龔光魯. 應用隨機過程 概率模型導論. 北京: 人民郵電出版社, 2011.
  • 龔光魯. 應用隨機過程教程 及在算法和智能計算中的隨機模型. 北京: 清華大學出版社, 2004.
  • Andrieu, Christophe, De Freitas, Nando, Doucet, Arnaud, and Jordan, Michael I. “An Introduction to MCMC for Machine Learning.” Machine Learning 50.1 (2003): 5-43.
  • 科勒, 弗里德曼, 王飛躍, and 韓素青. 概率圖模型 原理與技術. 北京: 清華大學出版社, 2015.
  • Perron, Oskar. “Zur Theorie Der Matrices.” Mathematische Annalen 64.2 (1907): 248-63.
  • 總結

    以上是生活随笔為你收集整理的马尔科夫蒙特卡罗方法的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。