日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

CNN 与 LSTM 模型复杂度分析

發(fā)布時間:2025/4/5 编程问答 55 豆豆
生活随笔 收集整理的這篇文章主要介紹了 CNN 与 LSTM 模型复杂度分析 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

文章目錄

    • 0.關(guān)于Neural Network 的復(fù)雜度
    • 1.CNN 模型復(fù)雜度
    • 2.LSTM 模型復(fù)雜度
    • 3.References


Author: Cao Shengming
Email: caoshengming@trio.ai
Company: Trio 北京(三角獸)科技有限公司


0.關(guān)于Neural Network 的復(fù)雜度

NN 模型的復(fù)雜度一般可以從兩個方面來刻畫:
時間復(fù)雜度:

時間復(fù)雜度與硬件執(zhí)行息息相關(guān),但是一般表示模型時間復(fù)雜度的方法,可以是某一層、或者產(chǎn)生某個結(jié)果所需要的操作(operation)數(shù)、所需要處理的元素(elements)個數(shù)或者完成某個操作所需要經(jīng)歷的路徑長度(path length)。

空間復(fù)雜度:

空間復(fù)雜度與模型容量是息息相關(guān)的,這里我們可以將空間復(fù)雜度簡單理解為模型的參數(shù)數(shù)量,也就是說 parameters per layer 就可以認(rèn)為是該層的模型復(fù)雜度。

(Note: 下邊如果不做特殊說明,我們將先講述空間復(fù)雜度的狀況。)

1.CNN 模型復(fù)雜度

常見的 CNN 模型一般包含以下集中類型的層,卷積層、池化層和全連接層。假設(shè)卷積核大小為 H*W,input channel 為 I,out channel 為 O。

輸入層和輸出層暫時先不考慮,輸入層沒有參數(shù),而輸出層一般是全連接層,就不做單獨分析。

  • Convolutional Layer:
    該層 filter 數(shù)量總數(shù)為 H*W*I,而每個將被映射到64個新的通道,加上每個filter 的計算要有一個 bias,所以總的參數(shù)數(shù)量為(H*W*I+1)*O。
  • Pooling Layer:
    一般的池化層屬于固定操作,沒有權(quán)重系數(shù)。
  • Fully Connected Layer:
    全連接層也好理解,前后要是 n,m 維的輸入輸出,所以其參數(shù)數(shù)量為(n+1)*m。
  • 2.LSTM 模型復(fù)雜度

    如圖所示LSTM將一共維護(hù)4套參數(shù),分別對應(yīng)輸入門、輸出門、遺忘門和候選態(tài)。所以總的參數(shù)數(shù)量如下所示:

    Number_of_weight = 4 * Hidden_size * (Input_size + Bias + Output_size)

    其中當(dāng)不做 project 的時候,Output_size 和 Hidden_size 實際上是一致的。
    其中 Input_size + Output_size 實際上就是 concat[ht?1h_{t-1}ht?1?, x] 。假設(shè)只有一個 hidden unit 那么參數(shù)數(shù)量為num(ht?1h_{t-1}ht?1?) + num(x) + num(bias),所以所有的 hidden unit 加起來只需要在前邊乘以 hidden_size 就可以。

    但我們還可以整體來理解,LSTM 中的參數(shù)我們可以簡化為 U ,V 兩個矩陣,其分別對輸入和輸出做映射,U 的維度為 hidden*Input,V 的維度是 hidden*hidden。所以這樣分開理解也可以,網(wǎng)絡(luò)在學(xué)習(xí)的就是這兩個矩陣,所以總的數(shù)量為 4(hidden*Input + hidden*hidden + hidden) 這也就是我們常看到的 4(nm+ n2n^2n2 +n),其中 n 為 hidden_size,m 為 input_size。

    3.References

  • https://datascience.stackexchange.com/questions/10615/number-of-parameters-in-an-lstm-model
  • https://stackoverflow.com/questions/38080035/how-to-calculate-the-number-of-parameters-of-an-lstm-network
  • http://wap.sciencenet.cn/blog-578676-1019567.html
  • http://colah.github.io/posts/2015-08-Understanding-LSTMs/
  • 總結(jié)

    以上是生活随笔為你收集整理的CNN 与 LSTM 模型复杂度分析的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。