日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

信息论——联合熵

發(fā)布時(shí)間:2024/8/1 编程问答 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 信息论——联合熵 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

聯(lián)合熵

    • Q:什么是聯(lián)合熵?
    • Q:聯(lián)合熵的物理意義是什么?

Q:什么是聯(lián)合熵?

聯(lián)合熵就是度量一個(gè)聯(lián)合分布的隨機(jī)系統(tǒng)的不確定度,下面給出兩個(gè)隨機(jī)變量的聯(lián)合熵的定義:
分布為 p(x,y)p(x,y)p(x,y) 的一對(duì)隨機(jī)變量 (X,Y)(X,Y)(X,Y) ,其聯(lián)合熵定義為:

H(X,Y)=?∑x∈X∑y∈Yp(x,y)log?p(x,y)=E[log?1p(x,y)]H(X,Y)=-\sum_{x \in \mathcal{X}}^{} \sum_{y \in \mathcal{Y}}^{} {p(x,y)\log p(x,y)}=E\left[ \log\frac{1}{p(x,y)} \right]H(X,Y)=?xX?yY?p(x,y)logp(x,y)=E[logp(x,y)1?]

與信息熵一樣也是一個(gè)數(shù)學(xué)期望

Q:聯(lián)合熵的物理意義是什么?

聯(lián)合熵的物理意義是:觀察一個(gè)多個(gè)隨機(jī)變量的隨機(jī)系統(tǒng)獲得的信息量。

為了進(jìn)一步剖析聯(lián)合熵,我們對(duì)其的進(jìn)行數(shù)學(xué)推導(dǎo)如下:

H(X,Y)=?∑x∈X∑y∈Yp(x,y)log?p(x,y)=?∑x∈X∑y∈Yp(x,y)log?p(x)p(y∣x)H(X,Y)=-\sum_{x \in \mathcal{X}}^{} \sum_{y \in \mathcal{Y}}^{}{p(x,y)\log p(x,y)}=-\sum_{x \in \mathcal{X}}^{} \sum_{y \in \mathcal{Y}}^{}p(x,y)\log p(x)p(y|x)H(X,Y)=?xX?yY?p(x,y)logp(x,y)=?xX?yY?p(x,y)logp(x)p(yx)

=?∑x∈X∑y∈Yp(x,y)log?p(x)?∑x∈X∑y∈Yp(x,y)log?p(y∣x)=-\sum_{x \in \mathcal{X}}^{} \sum_{y \in \mathcal{Y}}^{}p(x,y)\log p(x)-\sum_{x \in \mathcal{X}}^{} \sum_{y \in \mathcal{Y}}^{}p(x,y)\log p(y|x)=?xX?yY?p(x,y)logp(x)?xX?yY?p(x,y)logp(yx)

=?∑x∈Xp(x)log?p(x)?∑x∈X∑y∈Yp(x,y)log?p(y∣x)=-\sum_{x \in \mathcal{X}}^{} p(x)\log p(x)-\sum_{x \in \mathcal{X}}^{} \sum_{y \in \mathcal{Y}}^{}p(x,y)\log p(y|x)=?xX?p(x)logp(x)?xX?yY?p(x,y)logp(yx)

=H(X)+H(Y∣X)=H(X)+H(Y|X)=H(X)+H(YX)

?∑x∈X∑y∈Yp(x,y)log?p(x)-\sum_{x \in \mathcal{X}}^{} \sum_{y \in \mathcal{Y}}^{}p(x,y)\log p(x)?xX?yY?p(x,y)logp(x) 通過邊緣化 yyy 得到 ?∑x∈Xp(x)log?p(x)-\sum_{x \in \mathcal{X}}^{} p(x)\log p(x)?xX?p(x)logp(x)

其中,條件熵 H(Y∣X)H(Y|X)H(YX)?∑x∈X∑y∈Yp(x,y)log?p(y∣x)-\sum_{x \in \mathcal{X}}^{} \sum_{y \in \mathcal{Y}}^{}p(x,y)\log p(y|x)?xX?yY?p(x,y)logp(yx) 所定義,其物理意義就是,在得知某一確定信息的基礎(chǔ)上獲取另外一個(gè)信息時(shí)所獲得的信息量。

繼續(xù)討論聯(lián)合熵,對(duì)于式子 H(X,Y)=H(X)+H(Y∣X)H(X,Y)=H(X)+H(Y|X)H(X,Y)=H(X)+H(YX) 所表達(dá)的物理含義是,對(duì)一個(gè)兩個(gè)隨機(jī)變量的隨機(jī)系統(tǒng),我們可以先觀察一個(gè)隨機(jī)變量獲取信息量,觀察完后,我們可以在擁有這個(gè)信息量的基礎(chǔ)上觀察第二個(gè)隨機(jī)變量的信息量。其那么先觀察哪一個(gè)隨機(jī)變量對(duì)信息量的獲取有影響嗎?利用概率論的知識(shí),我們可以輕易得出:H(X,Y)=H(Y)+H(X∣Y)H(X,Y)=H(Y)+H(X|Y)H(X,Y)=H(Y)+H(XY)。也就是說,先觀察誰,對(duì)信息量都不會(huì)有影響,這是非常符合直覺的。

基于上述的討論,我們不禁會(huì)問,如果有n個(gè)隨機(jī)變量處于一個(gè)隨機(jī)系統(tǒng)中,那么我們獲取其聯(lián)合熵也是無關(guān)觀察先后嗎?答案是肯定的。為了說明原因,我們給出熵的鏈?zhǔn)椒▌t:

設(shè)隨機(jī)變量 X1,X2,? ,XnX_{1},X_{2},\cdots,X_{n}X1?,X2?,?,Xn? 服從 p(x1,x2,? ,xn)p(x_{1},x_{2},\cdots,x_{n})p(x1?,x2?,?,xn?) ,則有:
H(X1,X2,? ,Xn)=∑i=1nH(Xi∣Xi?1,? ,X1)H(X_{1},X_{2},\cdots,X_{n})= \sum_{i=1}^{{n}}H(X_{i}|X_{i-1},\cdots,X_{1})H(X1?,X2?,?,Xn?)=i=1n?H(Xi?Xi?1?,?,X1?)
我們可以利用數(shù)學(xué)推導(dǎo)證明:

H(X1,X2,? ,Xn)=?∑x1,? ,xn∈Xnp(x1,? ,xn)log?p(x1,? ,xn)=?∑x1,? ,xn∈Xnp(x1,? ,xn)log?p(x1,? ,xn?1)p(xn∣x1,? ,xn?1)=?∑x1,? ,xn∈Xnp(x1,? ,xn)log?p(x1,? ,xn?2)p(xn?1∣x1,? ,xn?2)p(xn∣x1,? ,xn?1)=?∑x1,? ,xn∈Xnp(x1,? ,xn)log∏i=1np(xi∣xi?1,? ,x1)=?∑x1,? ,xn∈Xnp(x1,? ,xn)∑i=1nlog?p(xi∣xi?1,? ,x1)=?∑i=1n∑x1,? ,xi∈Xip(x1,? ,xi)log?p(xi∣xi?1,? ,x1)=∑i=1nH(Xi∣Xi?1,? ,X1)H(X_{1},X_{2},\cdots,X_{n})=- \sum_{x_{1},\cdots,x_{n}\in \mathcal{X}^{n}}^{{}}p(x_{1},\cdots,x_{n})\log p(x_{1},\cdots,x_{n}) =- \sum_{x_{1},\cdots,x_{n}\in \mathcal{X}^{n}}^{{}}p(x_{1},\cdots,x_{n})\log p(x_{1},\cdots,x_{n-1})p(x_{n}|x_{1},\cdots,x_{n-1}) =- \sum_{x_{1},\cdots,x_{n}\in \mathcal{X}^{n}}^{{}}p(x_{1},\cdots,x_{n})\log p(x_{1},\cdots,x_{n-2})p(x_{n-1}|x_{1},\cdots,x_{n-2})p(x_{n}|x_{1},\cdots,x_{n-1}) =- \sum_{x_{1},\cdots,x_{n}\in \mathcal{X}^{n}}^{{}}p(x_{1},\cdots,x_{n})log\prod_{i=1}^{n}p(x_{i}|x_{i-1},\cdots,x_{1}) =- \sum_{x_{1},\cdots,x_{n}\in \mathcal{X}^{n}}^{{}}p(x_{1},\cdots,x_{n}) \sum_{i=1}^{n} \log p(x_{i}|x_{i-1},\cdots,x_{1}) =-\sum_{i=1}^{n} \sum_{x_{1},\cdots,x_{i}\in \mathcal{X}^{i}}^{{}}p(x_{1},\cdots,x_{i}) \log p(x_{i}|x_{i-1},\cdots,x_{1}) = \sum_{i=1}^{{n}}H(X_{i}|X_{i-1},\cdots,X_{1})H(X1?,X2?,?,Xn?)=?x1?,?,xn?Xn?p(x1?,?,xn?)logp(x1?,?,xn?)=?x1?,?,xn?Xn?p(x1?,?,xn?)logp(x1?,?,xn?1?)p(xn?x1?,?,xn?1?)=?x1?,?,xn?Xn?p(x1?,?,xn?)logp(x1?,?,xn?2?)p(xn?1?x1?,?,xn?2?)p(xn?x1?,?,xn?1?)=?x1?,?,xn?Xn?p(x1?,?,xn?)logi=1n?p(xi?xi?1?,?,x1?)=?x1?,?,xn?Xn?p(x1?,?,xn?)i=1n?logp(xi?xi?1?,?,x1?)=?i=1n?x1?,?,xi?Xi?p(x1?,?,xi?)logp(xi?xi?1?,?,x1?)=i=1n?H(Xi?Xi?1?,?,X1?)

注: ?∑i=1n∑x1,? ,xi∈Xip(x1,? ,xi)log?p(xi∣xi?1,? ,x1)-\sum_{i=1}^{n} \sum_{x_{1},\cdots,x_{i}\in \mathcal{X}^{i}}^{{}}p(x_{1},\cdots,x_{i}) \log p(x_{i}|x_{i-1},\cdots,x_{1})?i=1n?x1?,?,xi?Xi?p(x1?,?,xi?)logp(xi?xi?1?,?,x1?) 這一步變換也是使用了邊緣化。

從鏈?zhǔn)椒▌t,我們可以更進(jìn)一步得到,如果隨機(jī)變量 X1,X2,? ,XnX_{1},X_{2},\cdots,X_{n}X1?,X2?,?,Xn? 是獨(dú)立的,那么聯(lián)合熵則可以表示為:

H(X1,X2,? ,Xn)=∑i=1nH(Xi)H(X_{1},X_{2},\cdots,X_{n})= \sum_{i=1}^{{n}}H(X_{i})H(X1?,X2?,?,Xn?)=i=1n?H(Xi?)

總結(jié)

以上是生活随笔為你收集整理的信息论——联合熵的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。