當(dāng)前位置:
首頁(yè) >
keras lstm 层理解
發(fā)布時(shí)間:2025/4/5
35
豆豆
生活随笔
收集整理的這篇文章主要介紹了
keras lstm 层理解
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
?最近一直在看 keras 的循環(huán)神經(jīng)網(wǎng)絡(luò)的lstm層??戳斯俜降膁ocument,和一些小伙伴的文章,一直都沒(méi)有特別清楚。
?今天看了這篇 文章,對(duì)RNN 有了一定的了解。
下面我以Nicholas_Jela這篇文章的代碼?鏈接?為案例分析LSTM 層參數(shù)的設(shè)置
?下面三行代碼是等價(jià)的
1. 輸入維度 ? input_dim=1
2. 輸出維度 ? output_dim=6
3. 滑動(dòng)窗口 ?input_length=10
?input_length=10,可不用輸入,實(shí)際上數(shù)據(jù)再輸入前,已經(jīng)被加工成三維數(shù)組,如下圖,train_x 是 106*10*1,的三維數(shù)組
代碼下載
總結(jié)
以上是生活随笔為你收集整理的keras lstm 层理解的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: ubuntu 安装 talib
- 下一篇: liunx 上传 代码到github