tensorflow越跑越慢_tensorflow如何解决越运行越慢的问题
這幾天寫tensorflow的時候發(fā)現(xiàn)隨著迭代的次數(shù)越來越多,tensorflow跑的速度越來越慢。查找才發(fā)現(xiàn)是tensorflow不斷的給之前的圖里加節(jié)點,導致占用的內(nèi)存越來越大,然后我嘗試了網(wǎng)上的各種方法,終于發(fā)現(xiàn)了一個靠譜的方法,先放上代碼
tf.reset_default_graph()
graph = tf.Graph()
with graph.as_default() as g:
x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")
y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")
# 第一層
layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)
# 第二層
layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)
# 輸出層
weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))
bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))
finish_output = tf.matmul(layer_2, weight) + bia
tf.add_to_collection("out", finish_output)
loss = tf.reduce_mean(tf.square(y_output - finish_output))
opt = tf.train.AdamOptimizer(0.01)
train_opt = opt.minimize(loss)
tf.add_to_collection("train_opt", train_opt)
saver = tf.train.Saver()
with tf.Session(graph=g) as sess:
init = tf.global_variables_initializer()
sess.run(init)
for i in range(len(x_data_array)):
# 使用數(shù)據(jù)訓練
if i > 60:
break
p = x_data_array[i]
p = np.array(p)
p = p.reshape([1, 36])
sess.run(train_opt, feed_dict={
x_data: p, y_output: y_data
})
saver.save(sess, "./versionPool/" + str(index) + "/model_" + str(index) + ".ckpt")
可以看出來我這段代碼是加載了保存過的模型
其中
tf.reset_default_graph()
graph = tf.Graph()
with graph.as_default() as g:
這個起到了關(guān)鍵作用,每次再訓練的時候重置一下圖,用新的圖訓練。這里踩了一個坑,我以為用了新圖可以直接使用
tf.train.import_meta_graph()
然后通過變量名導入再跑就行了,然后我怎么用調(diào)都沒法解決,最后我直接再定義一遍需要用的變量和操作然后就可以跑起來了
因為我在我的項目中還需要時刻通過這個模型來預(yù)測,然后發(fā)現(xiàn)報錯了,嘗試了許久,我就在我生成模型的那部分代碼也改成類似的
tf.reset_default_graph()
graph = tf.Graph()
with graph.as_default() as g:
x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")
y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")
# 第一層
layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)
# 第二層
layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)
# 輸出層
weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))
bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))
finish_output = tf.matmul(layer_2, weight) + bia
tf.add_to_collection("out", finish_output)
loss = tf.reduce_mean(tf.square(y_output - finish_output))
opt = tf.train.AdamOptimizer(0.01)
train_opt = opt.minimize(loss)
tf.add_to_collection("train_opt", train_opt)
saver = tf.train.Saver()
with tf.Session() as sess:
init = tf.global_variables_initializer()
sess.run(init)
sess.run(train_opt, feed_dict={
x_data: init_random_list(), y_output: np.random.randint(0, 1000)
})
saver.save(sess, "./versionPool/" + str(index) + "/model_" + str(index) + ".ckpt")
可以看出來這是第一次生成模型的代碼,我第一次就直接用了
tf.reset_default_graph()
graph = tf.Graph()
然后我在使用模型做預(yù)測的過程中就不會報錯了
歡迎來我的博客 Qi的博客
總結(jié)
以上是生活随笔為你收集整理的tensorflow越跑越慢_tensorflow如何解决越运行越慢的问题的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python银行系统模拟演练_pytho
- 下一篇: 群晖 root_最新群晖DSM7.0降级