日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

tensorflow越跑越慢_tensorflow如何解决越运行越慢的问题

發(fā)布時間:2024/7/23 编程问答 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 tensorflow越跑越慢_tensorflow如何解决越运行越慢的问题 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

這幾天寫tensorflow的時候發(fā)現(xiàn)隨著迭代的次數(shù)越來越多,tensorflow跑的速度越來越慢。查找才發(fā)現(xiàn)是tensorflow不斷的給之前的圖里加節(jié)點,導致占用的內(nèi)存越來越大,然后我嘗試了網(wǎng)上的各種方法,終于發(fā)現(xiàn)了一個靠譜的方法,先放上代碼

tf.reset_default_graph()

graph = tf.Graph()

with graph.as_default() as g:

x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")

y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")

# 第一層

layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)

# 第二層

layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)

# 輸出層

weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))

bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))

finish_output = tf.matmul(layer_2, weight) + bia

tf.add_to_collection("out", finish_output)

loss = tf.reduce_mean(tf.square(y_output - finish_output))

opt = tf.train.AdamOptimizer(0.01)

train_opt = opt.minimize(loss)

tf.add_to_collection("train_opt", train_opt)

saver = tf.train.Saver()

with tf.Session(graph=g) as sess:

init = tf.global_variables_initializer()

sess.run(init)

for i in range(len(x_data_array)):

# 使用數(shù)據(jù)訓練

if i > 60:

break

p = x_data_array[i]

p = np.array(p)

p = p.reshape([1, 36])

sess.run(train_opt, feed_dict={

x_data: p, y_output: y_data

})

saver.save(sess, "./versionPool/" + str(index) + "/model_" + str(index) + ".ckpt")

可以看出來我這段代碼是加載了保存過的模型

其中

tf.reset_default_graph()

graph = tf.Graph()

with graph.as_default() as g:

這個起到了關(guān)鍵作用,每次再訓練的時候重置一下圖,用新的圖訓練。這里踩了一個坑,我以為用了新圖可以直接使用

tf.train.import_meta_graph()

然后通過變量名導入再跑就行了,然后我怎么用調(diào)都沒法解決,最后我直接再定義一遍需要用的變量和操作然后就可以跑起來了

因為我在我的項目中還需要時刻通過這個模型來預(yù)測,然后發(fā)現(xiàn)報錯了,嘗試了許久,我就在我生成模型的那部分代碼也改成類似的

tf.reset_default_graph()

graph = tf.Graph()

with graph.as_default() as g:

x_data = tf.placeholder(shape=[None, 36], dtype=tf.float32, name="input")

y_output = tf.placeholder(shape=None, dtype=tf.float32, name="output")

# 第一層

layer_1 = tf.layers.dense(inputs=x_data, units=36, activation=tf.nn.relu, use_bias=True)

# 第二層

layer_2 = tf.layers.dense(inputs=layer_1, units=10, activation=None, use_bias=True)

# 輸出層

weight = tf.Variable(tf.random_normal(shape=[10, 1], stddev=1.0))

bia = tf.Variable(tf.random_normal(shape=[1], stddev=1.0))

finish_output = tf.matmul(layer_2, weight) + bia

tf.add_to_collection("out", finish_output)

loss = tf.reduce_mean(tf.square(y_output - finish_output))

opt = tf.train.AdamOptimizer(0.01)

train_opt = opt.minimize(loss)

tf.add_to_collection("train_opt", train_opt)

saver = tf.train.Saver()

with tf.Session() as sess:

init = tf.global_variables_initializer()

sess.run(init)

sess.run(train_opt, feed_dict={

x_data: init_random_list(), y_output: np.random.randint(0, 1000)

})

saver.save(sess, "./versionPool/" + str(index) + "/model_" + str(index) + ".ckpt")

可以看出來這是第一次生成模型的代碼,我第一次就直接用了

tf.reset_default_graph()

graph = tf.Graph()

然后我在使用模型做預(yù)測的過程中就不會報錯了

歡迎來我的博客 Qi的博客

總結(jié)

以上是生活随笔為你收集整理的tensorflow越跑越慢_tensorflow如何解决越运行越慢的问题的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。