日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

UA MATH636 信息论5 信道编码定理的证明

發布時間:2025/4/14 编程问答 18 豆豆
生活随笔 收集整理的這篇文章主要介紹了 UA MATH636 信息论5 信道编码定理的证明 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

UA MATH636 信息論5 信道編碼定理的證明

  • Random Coding Scheme
    • 平均錯誤率
    • 最大錯誤率
  • 逆命題的證明

信道編碼定理說的是所有小于 CCC的傳輸率是可實現的。這里的 CCC就是我們之前定義的
C=max?p(X)I(X;Y)C = \max_{p(X)} I(X;Y)C=p(X)max?I(X;Y)
因此這個表述指的是
C=max?p(X)I(X;Y)=max?{R:Risachievable}C = \max_{p(X)} I(X;Y) = \max\{R:R\ is\ achievable\}C=p(X)max?I(X;Y)=max{R:R?is?achievable}
這一篇主要就證明一下這個定理和它的逆命題。

先簡單描述一下符號和設定:
因為M=2nRM=2^{nR}M=2nR,記codebook為C={Xn(i)}i=12nR\mathcal{C}=\{\mathcal{X}^n(i)\}_{i=1}^{2^{nR}}C={Xn(i)}i=12nR?,注意這個codebook是從總體p(X)p(X)p(X)中隨機生成的。假設信號是{1,2,?,M}\{1,2,\cdots,M\}{1,2,?,M}上的均勻分布,假設某一次信源發出的信號為www,則信源編碼器傳送到噪聲信道上的碼為Xn(w)\mathcal{X}^n(w)Xn(w)。經過噪聲信道傳輸到接收端的解碼器上的碼為yny^nyn
p(yn∣Xn(w))=∏i=1np(yi∣Xn(w))p(y^n|\mathcal{X}^n(w)) = \prod_{i=1}^n p(y^i|\mathcal{X}^n(w))p(ynXn(w))=i=1n?p(yiXn(w))
經過解碼后得到信號www的估計量w^\hat{w}w^,它滿足Xn(w^)\mathcal{X}^n(\hat{w})Xn(w^)是唯一能與yny^nyn構成joint typical的碼。
上面這個系統叫做一個random coding scheme。

Random Coding Scheme

平均錯誤率

記事件w^≠w\hat{w} \ne ww^?=wE\EpsilonE,則
p(E)=∑?Cp(C)pe(n)(C)p(\Epsilon)=\sum_{\forall \mathcal{C}} p(\mathcal{C}) p_{e}^{(n)}(\mathcal{C})p(E)=?C?p(C)pe(n)?(C)
因為平均錯誤率比最大錯誤率更好分析,所以先從平均錯誤率開始。
p(E)=∑?Cp(C)[12nR∑w=12nRλw(C)]=12nR∑w=12nR[∑?Cp(C)λw(C)]p(\Epsilon)=\sum_{\forall \mathcal{C}} p(\mathcal{C}) \left[\frac{1}{2^{nR}} \sum_{w=1}^{2^{nR}} \lambda_{w}(\mathcal{C})\right] =\frac{1}{2^{nR}} \sum_{w=1}^{2^{nR}} \left[ \sum_{\forall \mathcal{C}} p(\mathcal{C} )\lambda_w(\mathcal{C})\right] p(E)=?C?p(C)???2nR1?w=12nR?λw?(C)???=2nR1?w=12nR?[?C?p(C)λw?(C)]
因為中括號里面的求和式對所有可能的codebook的,所以實際上這個量會與www無關,不失一般性可以將上式寫成
p(E)=∑?Cp(C)λ1(C)=p(?∣w=1)p(\Epsilon)=\sum_{\forall \mathcal{C}} p(\mathcal{C} )\lambda_1(\mathcal{C}) = p(\epsilon|w=1)p(E)=?C?p(C)λ1?(C)=p(?w=1)
(Xn(i),yn)?A?(n)(\mathcal{X}^n(i),y^n) \notin A_{\epsilon}^{(n)}(Xn(i),yn)/?A?(n)?時,錯誤會發生。記事件Ei={(Xn(i),yn)∈A?(n)}E_i = \{(\mathcal{X}^n(i),y^n) \in A_{\epsilon}^{(n)}\}Ei?={(Xn(i),yn)A?(n)?},則根據Bonferroni不等式
p(E∣w=1)=p(E1C∪E2∪?E2nR)≤p(E1C∣w=1)+∑i=22nRp(Ei∣w=1)p(\Epsilon|w=1) = p(E_1^C \cup E_2 \cup \cdots E_{2^{nR}}) \\ \le p(E_1^C|w=1) + \sum_{i=2}^{2^{nR}} p(E_i|w=1)p(Ew=1)=p(E1C?E2??E2nR?)p(E1C?w=1)+i=22nR?p(Ei?w=1)
根據Joint AEP的性質1:
p(E1C∣w=1)=p(Xn(i),yn)?A?(n))≤?p(E_1^C|w=1) = p(\mathcal{X}^n(i),y^n) \notin A_{\epsilon}^{(n)}) \le \epsilonp(E1C?w=1)=p(Xn(i),yn)/?A?(n)?)?
考慮p(Ei∣w=1)=p(Xn(i),yn)?A?(n))p(E_i|w=1) = p(\mathcal{X}^n(i),y^n) \notin A_{\epsilon}^{(n)})p(Ei?w=1)=p(Xn(i),yn)/?A?(n)?)
因為yny^nyn是碼Xn(1)\mathcal{X}^n(1)Xn(1)經過噪聲信道傳輸到接收端的解碼器的,并且Xn(1)\mathcal{X}^n(1)Xn(1)Xn(i)\mathcal{X}^n(i)Xn(i)是獨立的,因此Xn(i),yn\mathcal{X}^n(i),y^nXn(i),yn是獨立的,所以根據Joint AEP性質3:
p(Ei∣w=1)≤2?n(I(X;Y)?3?)p(E_i|w=1) \le 2^{-n(I(X;Y)-3\epsilon)}p(Ei?w=1)2?n(I(X;Y)?3?)
帶入到錯誤率中
p(E1C∣w=1)≤?+2nR2?n(I(X;Y)?3?)=?+2?n(I(X;Y)?R?3?)p(E_1^C|w=1) \le \epsilon + 2^{nR} 2^{-n(I(X;Y)-3\epsilon)}=\epsilon + 2^{-n(I(X;Y)-R-3\epsilon)}p(E1C?w=1)?+2nR2?n(I(X;Y)?3?)=?+2?n(I(X;Y)?R?3?)
要讓這個上界收斂,需要2?n(I(X;Y)?R?3?)2^{-n(I(X;Y)-R-3\epsilon)}2?n(I(X;Y)?R?3?)?\epsilon?控制,從而
R<I(X;Y)?3?R < I(X;Y) - 3\epsilonR<I(X;Y)?3?
這里就可以看出信道容量的形式了,錯誤率也被控制住了。下面再從平均錯誤率到最大錯誤率,看看結論會不會變。

最大錯誤率

已經證明了p(E)≤2?p(\Epsilon) \le 2\epsilonp(E)2?,因此
p(E)=∑?Cp(C)p(E∣C)≤2?p(\Epsilon)=\sum_{\forall \mathcal{C}} p(\mathcal{C}) p(E|\mathcal{C}) \le 2\epsilonp(E)=?C?p(C)p(EC)2?
?C?\exists \mathcal{C}^*?C?p(E∣C?)≤2?p(\Epsilon|\mathcal{C}^*) \le 2 \epsilonp(EC?)2?。其中
p(E∣C?)=12nR∑i=12nRλi(C?)p(\Epsilon|\mathcal{C}^*) = \frac{1}{2^{nR}} \sum_{i=1}^{2^{nR}} \lambda_i(\mathcal{C}^*)p(EC?)=2nR1?i=12nR?λi?(C?)
根據這個表達式我們可以判斷,在這2nR2^{nR}2nR個錯誤率λi(C?)\lambda_i(\mathcal{C}^*)λi?(C?)中,至少有一半是比4?4\epsilon4?更小的。將更小的這一半作為一個新的codebook,則新的codebook共有2nR?12^{nR-1}2nR?1個code,最大錯誤率會比4?4\epsilon4?小。注意到此時的傳輸率為
log?22nR?1/n=R?1n→R\log_2 2^{nR-1}/n = R - \frac{1}{n} \to Rlog2?2nR?1/n=R?n1?R
即傳輸率不會受到影響,定理結果不變。

逆命題的證明

考慮w→Xn(w)→yn→w^w \to \mathcal{X}^n(w) \to y^n \to \hat{w}wXn(w)ynw^這個數據過程是一個Markov Chain。根據Fano不等式:
H(E)≤h(p(E))+p(E)log?2(M)=h(p(E))+nRp(E)≤1+nRp(E)H(E) \le h(p(E)) + p(E) \log_2 (M) \\ = h(p(E)) + nRp(E) \le 1 +nRp(E) H(E)h(p(E))+p(E)log2?(M)=h(p(E))+nRp(E)1+nRp(E)
因為信號是{1,2,?,M}\{1,2,\cdots,M\}{1,2,?,M}上的均勻分布,根據數據處理不等式
H(w)=nR=H(w)?H(w∣w^)+H(w∣w^)=I(w;w^)+H(w∣w^)≤I(w;w^)+1+nRp(E)≤I(Xn(w);yn)+1+nRp(E)H(w) = nR = H(w) - H(w|\hat{w}) + H(w|\hat{w}) \\= I(w;\hat{w}) + H(w|\hat{w}) \le I(w;\hat{w}) + 1 + nRp(E) \\ \le I(\mathcal{X}^n(w);y^n) +1 + nRp(E) H(w)=nR=H(w)?H(ww^)+H(ww^)=I(w;w^)+H(ww^)I(w;w^)+1+nRp(E)I(Xn(w);yn)+1+nRp(E)
其中
I(Xn(w);yn)=H(yn)?H(yn∣Xn(w))=H(yn)?∑i=1nH(yi∣Xn(w),yi?1)I(\mathcal{X}^n(w);y^n) = H(y^n) - H(y^n|\mathcal{X}^n(w)) \\ = H(y^n) - \sum_{i=1}^n H(y^i|\mathcal{X}^n(w),y^{i-1})I(Xn(w);yn)=H(yn)?H(ynXn(w))=H(yn)?i=1n?H(yiXn(w),yi?1)
根據噪聲信道的無記憶性,如果Xn(w)=(x1,?,xn)\mathcal{X}^n(w)=(x^1,\cdots,x^n)Xn(w)=(x1,?,xn)
I(Xn(w);yn)=H(yn)?∑i=1nH(yi∣xi)≤∑i=1nH(yi)?∑i=1nH(yi∣xi)=∑i=1nI(xi;yi)≤∑i=1nmax?I(X;Y)=nCI(\mathcal{X}^n(w);y^n) = H(y^n) - \sum_{i=1}^n H(y^i|x^i) \\ \le\sum_{i=1}^n H(y^i) - \sum_{i=1}^n H(y^i|x^i) = \sum_{i=1}^n I(x_i;y_i) \\ \le \sum_{i=1}^n \max I(X;Y) = nCI(Xn(w);yn)=H(yn)?i=1n?H(yixi)i=1n?H(yi)?i=1n?H(yixi)=i=1n?I(xi?;yi?)i=1n?maxI(X;Y)=nC
因此
nR≤nC+1+nRp(E)?R≤C+Rp(E)+1nnR \le nC + 1 + nRp(E) \Rightarrow R \le C + Rp(E) + \frac{1}{n}nRnC+1+nRp(E)?RC+Rp(E)+n1?
假設RRR是可實現的,則n→∞n \to \inftyn時,
1n→0,p(E)→0\frac{1}{n} \to 0, p(E) \to 0n1?0,p(E)0
R≤CR \le CRC

總結

以上是生活随笔為你收集整理的UA MATH636 信息论5 信道编码定理的证明的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。