日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

总结深度学习各种网络结构【更新中...】

發布時間:2025/3/17 pytorch 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 总结深度学习各种网络结构【更新中...】 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

CNN:

總結:利用權值共享【卷積操作】將神經網絡本來的全連接層替換為非全連接層,使輸入可以為尺度可變的張量。

可用結構:

(Max, mean)Pooling:降維;

全連接層:分類;

GAN:

總結:利用兩個網絡對抗生成模型,生成器與辨別器,生成器輸入圖像,生成所需圖像,辨別器辨別所需圖像與生成圖像,使生成器的生成圖像騙過辨別器。

可用結構:

CNN;(Recursive)Residual Network(殘差(遞歸)網絡);FCN(全卷積網絡);convolutional LSTM;

Autoencoder【AE】自編碼器:

與GAN一樣,并不是單純的網絡結構,只是類似PCA一樣的東西,在無監督學習中的框架,利用conv與deconv降維升維來進行學習,分別叫做encoder與decoder編碼解碼,一般基于卷積網絡,encoder后相當于學習到了特征,而decoder后相當于還原了圖像,既可以用輸入圖像進行訓練,訓練好一層加深一層。再可以利用有監督微調,從而達到分類或者圖像轉換的目的。

可用結構:

CNN;Residual Network

Variance Autoencoder【VAE】變分自編碼器:

與AE不同的是,在encoder后與噪聲作用,是一種生成模型。

CNN;Residual Network

殘差網絡Resnet:

利用上一級的輸入與結果相加來使深層網絡效果更好(一個殘差塊一般不小于兩層)。

?

U-NET

也是encoder-decoder,利用前一encoder的信息與decoder信息結合,兩者一一對應,共享信息。

RNN

在每層神經元間也有級聯,也可以使用卷積層。

https://blog.csdn.net/weixin_41923961/article/details/81516622

LSTM

是RNN的特殊變體,由于RNN距離遠的神經元會出現梯度消失,其之間聯系得不到利用,對神經元間加入一些結構,可以有選擇的級聯,解決梯度消失。

3D-CNN

既輸入是三維數組,原來比如是256??256??3,現在可以輸入視頻256??256??3??300,用于分析視頻,對物體運動以及三維形態。

Batch normalization 層

網絡中間層數據做一個歸一化處,但如果是僅僅使用原本的歸一化公式,對網絡某一層A的輸出數據做歸一化,然后送入網絡下一層B,這樣是會影響到本層網絡A所學習到的特征的,相當于這一層網絡所學習到的特征分布被破壞了。解決:變換重構,引入了可學習參數γ、β,這就是算法關鍵之處:

每一個神經元xk都會有一對這樣的參數γ、β。這樣其實當:

、

是可以恢復出原始的某一層所學到的特征的。因此我們引入了這個可學習重構參數γ、β,讓網絡可以學習恢復出原始網絡所要學習的特征分布。最后Batch?Normalization網絡層的前向傳導過程公式就是:

?

上面的公式中m指的是mini-batch?size。其可以極大加快網絡訓練速度,甚至可以舍棄L2正則和drop?out.

Dense Net

https://blog.csdn.net/weixin_41923961/article/details/82829733

DBN 深度置信網絡

https://blog.csdn.net/weixin_41923961/article/details/81586213

GCN圖卷積網絡

https://blog.csdn.net/weixin_41923961/article/details/88372849

總結

以上是生活随笔為你收集整理的总结深度学习各种网络结构【更新中...】的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。