日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

DatawhaleLeeML-Task05-网络设计的技巧第二部分

發布時間:2023/12/20 编程问答 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 DatawhaleLeeML-Task05-网络设计的技巧第二部分 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Datawhale LeeML-Task05-網絡設計的技巧第二部分

  • 分類
  • Batch Normalization

分類

如果class用 1 2 3表示不妥 并不一定有關聯性 ——> 把class用one-hot來表示

分類一般在最后會加上Soft-max函數:
yi′=exp?(yi)∑jexp?(yi)y_{i}^{\prime}=\frac{\exp \left(y_{i}\right)}{\sum_{j} \exp \left(y_{i}\right)} yi?=j?exp(yi?)exp(yi?)?
滿足:
0<yi′<1∑iyi′=1\begin{aligned} &0 < y_{i}^{\prime}< 1 \\ &\sum_{i} y_{i}^{\prime}=1 \end{aligned} ?0<yi?<1i?yi?=1?
如果只有兩類,用Sigmoid函數(相同效果)

損失函數
均方差 交叉熵
為什么分類中cross entropy更好(當然可以采用Adam等方法也許可以改進,使得可以train到右下角 ) ,所以Loss function 也會影響到訓練

Pytorch 中 cross entropy內嵌了softmax

Batch Normalization

當我們輸入feature,每個維度上數值差距很大時 就會產生不個方向斜率非常不同的Error surface
解決方法: 讓feature里不同的dimension,有同樣的數值范圍
x1,x2,x3,...,xr,...,xR\begin{array}{lllll}x^{1},x^{2},x^{3},...,x^{r},...,x^{R}\end{array}x1,x2,x3,...,xr,...,xR?是所有 feature,對同一個dimension里不同的feature的數值計算平均,標準差,進行標準化

考慮深度學習,那么第一層輸出后,是否不同維度又有不同分布了 ,繼續標準化

實際,我們不會考慮所有training data,而只是考慮一個batch里的data ===> Batch Normalization
適用于batch size 比較大時

一般標準化后還會進一步操作(回復一些數據特征?):z^i=γ⊙z~i+β\hat{\mathbf{z}}^{i}=\gamma \odot \tilde{z}^{i}+\betaz^i=γz~i+β 這是兩個參數,學習出來的

在測試時,μ,σ\mu, \sigmaμ,σ用的是訓練階段得到的moving average,而不用再次計算

**BN作用:解決Internal Covariate Shift(內部協方差偏移問題),改變Error surface,使得沒有那么崎嶇 **

別的Normalization:

上面BN部分還需完善

總結

以上是生活随笔為你收集整理的DatawhaleLeeML-Task05-网络设计的技巧第二部分的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。