日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

交叉熵(cross entropy)概念整理

發布時間:2023/12/20 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 交叉熵(cross entropy)概念整理 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

網上寫得實在是太亂,整理下:

交叉熵函數:
H(p,q)=Ep[?logq]=?∑x∈χp(x)logq(x)①H(p,q)=E_p[-log\ q]=-\sum_{x\in \chi}p(x)log\ q(x)①H(p,q)=Ep?[?log?q]=?xχ?p(x)log?q(x)
xxx是某個類別
χ\chiχ是所有的類別的集合

H(p,q)=H(p)+DKL(p∣∣q)H(p,q)=H(p)+D_{KL}(p||q)H(p,q)=H(p)+DKL?(pq)

DKL(p∣∣q)D_{KL}(p||q)DKL?(pq)是KL散度,注意,在概念上:
DKL(p∣∣q)D_{KL}(p||q)DKL?(pq)DKL(q∣∣p)D_{KL}(q||p)DKL?(qp)

其中
DKL(p∣∣q)=∑x∈χp(x)?logp(x)q(x)D_{KL}(p||q)=\sum_{x\in \chi}p(x)·log\frac{p(x)}{q(x)}DKL?(pq)=xχ?p(x)?logq(x)p(x)?

交叉熵損失函數:
L(w)=1N∑n=1NH(pn,qn)L(w)=\frac{1}{N}\sum_{n=1}^NH(p_n,q_n)L(w)=N1?n=1N?H(pn?,qn?)
=?1N∑n=1N[pnlogqn+(1?pn)log(1?qn)]②=-\frac{1}{N}\sum_{n=1}^N[p_nlog\ q_n+(1-p_n)log(1-q_n)]②=?N1?n=1N?[pn?log?qn?+(1?pn?)log(1?qn?)]
這里我們稍微停一下,似乎發現①和②的形式不太一樣???
注意②是特指二分類的形式。

qn=11+e?w?xnq_n=\frac{1}{1+e^{-w·x_n}}qn?=1+e?w?xn?1?
www指的是該隱藏單元的輸入權重,
xnx_nxn?指的是與隱藏單元鏈接的輸入值
從定義可以看到,交叉熵損失函數的值總是小于1的。

其中,
pnp_npn?為真實分布,
qnq_nqn?為非真實分布.

這里的NNN指的是NNN條數據,而不是NNN分類,上述公式是針對二分類的。

參考鏈接:
https://www.cnblogs.com/ljy2013/p/6432269.html#commentform

總結

以上是生活随笔為你收集整理的交叉熵(cross entropy)概念整理的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。