日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Tensorflow LSTM时间序列预测的尝试

發(fā)布時間:2025/3/21 编程问答 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Tensorflow LSTM时间序列预测的尝试 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

一、網(wǎng)上的資源

網(wǎng)上有不少用LSTM來預(yù)測時間序列的資源,如下面:

深度學(xué)習(xí)(08)_RNN-LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)-03-Tensorflow進階實現(xiàn)

http://blog.csdn.net/u013082989/article/details/73693392

Applying Deep Learning to Time Series Forecasting with TensorFlow

https://mapr.com/blog/deep-learning-tensorflow/

Tensorflow 筆記 RNN 預(yù)測時間序列

https://www.v2ex.com/t/339544

tf19: 預(yù)測鐵路客運量

http://blog.csdn.net/u014365862/article/details/53869802


但是調(diào)試起來,都很困難!借鑒比較多的是tf19:預(yù)測鐵路客運量這篇博文。這篇博文首先是基本上可以運行的。但是訓(xùn)練模型和測試模型分開,需要通過文件來傳遞模型參數(shù)。而且訓(xùn)練和測試不能同時運行。因此調(diào)試起來也費了不少功夫!

二、LSTM時間序列預(yù)測

1. 用namedtuple來配置模型的超參數(shù)。

HParams = namedtuple('HParams',?'seq_size, hidden_size, learning_rate')


這種方式比定義一個Config類好。

2. 構(gòu)建時間序列預(yù)測模型類TS_LSTM

class TS_LSTM(object):def __init__(self, hps):self._X = X = tf.placeholder(tf.float32, [None, hps.seq_size, 1]) ?self._Y = Y = tf.placeholder(tf.float32, [None, hps.seq_size]) ? ? ?W = tf.Variable(tf.random_normal([hps.hidden_size, 1]), name='W') ?b = tf.Variable(tf.random_normal([1]), name='b') ?lstm_cell = tf.nn.rnn_cell.BasicLSTMCell(hps.hidden_size) ?#測試cost 1.3809outputs, states = tf.nn.dynamic_rnn(lstm_cell, X, dtype=tf.float32) ?W_repeated = tf.tile(tf.expand_dims(W, 0), [tf.shape(X)[0], 1, 1]) ?output = tf.nn.xw_plus_b(outputs, W_repeated, b) ?self._output = output = tf.squeeze(output) ?self._cost = cost = tf.reduce_mean(tf.square(output - Y)) ?self._train_op = tf.train.AdamOptimizer(hps.learning_rate).minimize(cost) ?@propertydef X(self):return self._X@propertydef Y(self):return self._Y ??@propertydef cost(self):return self._cost@propertydef output(self):return self._output@propertydef train_op(self):return self._train_op


這種方式比用函數(shù)定義模型更加方便。@property的設(shè)計使得模型用起來更加方便!?
模型的關(guān)鍵就是:?
1). 設(shè)定BasicLSTMCell的隱藏節(jié)點個數(shù)?
2). 調(diào)用dynamic_rnn(lstm_cell,X)來計算輸出outputs?
3). 調(diào)用xw_plus_b將outputs計算為單個的output?
模型中各變量的維度如下:(batch_size=100, seq_size=3, hidden_size=6)?
- X定義為[None, hps.seq_size, 1]是因為dynamic_rnn的輸入針對的是二維圖像樣本的輸入,因此,必須多定義一個1的維度,傳入的實際應(yīng)該為100*3*1。?
- Y的維度維持與圖像標(biāo)簽輸入數(shù)據(jù)維度相同,傳入的實際應(yīng)該為100*3。?
- W為6*1?
- b為1*1?
- outputs為100*3*6?
- W_repeated為100*6*1,其變化過程6*11*6*1100*6*1。?
- output在squeeze之前為100*3*1,squeeze后為100*3?
- cost為1*1

3. 訓(xùn)練和測試函數(shù)train_test

def train_test(hps, data):#訓(xùn)練數(shù)據(jù)準(zhǔn)備train_data_len = len(data)*2//3train_x, train_y = [], [] ?for i in range(train_data_len - hps.seq_size - 1): ?train_x.append(np.expand_dims(data[i : i + hps.seq_size], axis=1).tolist()) ?train_y.append(data[i + 1 : i + hps.seq_size + 1].tolist()) ?#測試數(shù)據(jù)準(zhǔn)備 ? ?test_data_len = len(data)//3test_x, test_y = [], [] ?for i in range(train_data_len,train_data_len+test_data_len - hps.seq_size - 1): ?test_x.append(np.expand_dims(data[i : i + hps.seq_size], axis=1).tolist()) ?test_y.append(data[i + 1 : i + hps.seq_size + 1].tolist()) ?with tf.Graph().as_default(), tf.Session() as sess: ?with tf.variable_scope('model',reuse=None):m_train = TS_LSTM(hps) ? ? ? ??#訓(xùn)練tf.global_variables_initializer().run()for step in range(20000): ?_, train_cost = sess.run([m_train.train_op, m_train.cost],?feed_dict={m_train.X: train_x, m_train.Y: train_y}) ?#預(yù)測?test_cost, output = sess.run([m_train.cost, m_train.output],feed_dict={m_train.X: test_x, m_train.Y: test_y}) ?#print(hps, train_cost, test_cost)return train_cost, test_cost


這里的關(guān)鍵是測試用是訓(xùn)練模型,我也不知道為什么好多網(wǎng)絡(luò)資源都將訓(xùn)練模型和測試模型分離開來。測試不就是用測試數(shù)據(jù)來測試訓(xùn)練模型的效果嗎?因此這里把2/3的數(shù)據(jù)劃給訓(xùn)練,1/3的數(shù)據(jù)用于測試。自己動手編代碼時一定要對session.run函數(shù)用法和原理熟悉。

4. 主函數(shù)(對超參數(shù)組合的測試誤差進行比較)

def main():#讀取原始數(shù)據(jù)f=open('鐵路客運量.csv') ?df=pd.read_csv(f) ??data = np.array(df['鐵路客運量_當(dāng)期值(萬人)']) ?normalized_data = (data - np.mean(data)) / np.std(data) ? ??#測試不同組合的超參數(shù)對測試誤差的影響costs =[]for seq_size in [4,6,12,16,24]:for hidden_size in [6,10,20,30]:print(seq_size, hidden_size)hps = HParams(seq_size, hidden_size, 0.003)train_cost, test_cost = train_test(hps, normalized_data)?costs.append([train_cost,test_cost])


進行了初步比較,感覺有兩個:?
1)同一個超參數(shù),測試誤差相差挺大。?
2)不同超參數(shù),訓(xùn)練時誤差基本都很小,但是測試誤差相差很大,如何限制學(xué)習(xí)過程中的過擬合是一個很大的問題。?
可以看看我運行的訓(xùn)練誤差和測試誤差的比較。代碼已放到csdn下載資源,csdn下載代碼來!

? ? ?訓(xùn)練誤差 ? ? ? ? ? ?測試誤差 [[ ?4.04044241e-02 ? 4.97651482e+00][ ?3.57200466e-02 ? 6.96304381e-01][ ?2.97380015e-02 ? 1.77482967e+01][ ?3.09452992e-02 ? 2.62166214e+00][ ?3.62494551e-02 ? 2.53422332e+00][ ?2.57663596e-02 ? 1.44900203e+00][ ?2.24006996e-02 ? 2.28607416e+00][ ?2.28729844e-02 ? 1.12727535e+00][ ?2.58173030e-02 ? 1.43265343e+00][ ?1.48035632e-02 ? 1.05281734e+00][ ?1.24982912e-02 ? 6.59598827e+00][ ?1.27354050e-02 ? 1.69984627e+00][ ?1.60749555e-02 ? 4.03962803e+00][ ?1.18473349e-02 ? 7.92685986e-01][ ?7.39684049e-03 ? 6.16959620e+00][ ?7.60479691e-03 ? 3.01771784e+00][ ?1.40351299e-02 ? 4.48093843e+00][ ?7.94599950e-03 ? 3.78614712e+00][ ?5.50406286e-03 ? 5.83478451e-01][ ?4.54067113e-03 ? 8.15259743e+00]]


?

總結(jié)

以上是生活随笔為你收集整理的Tensorflow LSTM时间序列预测的尝试的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。