日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

RNN,LSTM,GRU的理解

發布時間:2025/3/8 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 RNN,LSTM,GRU的理解 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

RNN


x 為當前狀態下數據的輸入, h 表示接收到的上一個節點的輸入。

y為當前節點狀態下的輸出,而h′h^\primeh為傳遞到下一個節點的輸出.

LSTM





#定義網絡 lstm = nn.LSTM(input_size=20,hidden_size=50,num_layers=2) #輸入變量 input_data = Variable(torch.randn(100,32,20)) #初始隱狀態 h_0 = Variable(torch.randn(2,32,50)) #輸出記憶細胞 c_0 = Variable(torch.randn(2,32,50)) #輸出變量 output,(h_t,c_t) = lstm(input_data,(h_0,c_0)) print(output.size()) print(h_t.size()) print(c_t.size()) #參數大小為(50x4,20),是RNN的四倍 print(lstm.weight_ih_l0) print(lstm.weight_ih_l0.size()) 打印結果: torch.Size([100, 32, 50]) torch.Size([2, 32, 50]) torch.Size([2, 32, 50]) tensor([[ 0.0068, -0.0925, -0.0343,, -0.1059, 0.0045, -0.1335], [-0.0509, 0.0135, 0.0100,, 0.0282, -0.1232, 0.0330], [-0.0425, 0.1392, 0.1140,, -0.0740, -0.1214, 0.1087],, [ 0.0217, -0.0032, 0.0815,, -0.0605, 0.0636, 0.1197], [ 0.0144, 0.1288, -0.0569,, 0.1361, 0.0837, -0.0021], [ 0.0355, 0.1045, 0.0339,, 0.1412, 0.0371, 0.0649]], requires_grad=True) torch.Size([200, 20])

注意LSTM的參數,rnn.weight_ih_l0 為 wiw_i~wi?? 的權重
rnn.weight_hh_l0 為 whw_h~wh?? 的權重,并且為hidden_size的4倍。

GRU


兩個門控

PyTorch中的循環神經網絡(RNN+LSTM+GRU)
人人都能看懂的GRU
人人都能看懂的LSTM

總結

以上是生活随笔為你收集整理的RNN,LSTM,GRU的理解的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。