日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

tensorboard 数据降维分布图_以mnist为例探究tensorboard

發(fā)布時間:2024/10/8 52 豆豆
生活随笔 收集整理的這篇文章主要介紹了 tensorboard 数据降维分布图_以mnist为例探究tensorboard 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

Tensorboard的數(shù)據(jù)形式
Tensorboard可以記錄與展示以下數(shù)據(jù)形式:
(1)標(biāo)量Scalars
(2)圖片Images
(3)音頻Audio
(4)計算圖Graph
(5)數(shù)據(jù)分布Distribution
(6)直方圖Histograms
(7)嵌入向量Embeddings
Tensorboard的可視化過程
(1)建立一個graph,你想從這個graph中獲取某些數(shù)據(jù)的信息
(2)確定要在graph中的哪些節(jié)點(diǎn)放置summary operations以記錄信息
使用tf.summary.scalar記錄標(biāo)量
使用tf.summary.histogram記錄數(shù)據(jù)的直方圖
使用tf.summary.distribution記錄數(shù)據(jù)的分布圖
使用tf.summary.image記錄圖像數(shù)據(jù)
….
(3)operations并不會去真的執(zhí)行計算,除非你告訴他們需要去run,或者它被其他的需要run的operation所依賴。而我們上一步創(chuàng)建的這些summary operations其實(shí)并不被其他節(jié)點(diǎn)依賴,因此,我們需要特地去運(yùn)行所有的summary節(jié)點(diǎn)。但是呢,一份程序下來可能有超多這樣的summary 節(jié)點(diǎn),要手動一個一個去啟動自然是及其繁瑣的,因此我們可以使用tf.summary.merge_all去將所有summary節(jié)點(diǎn)合并成一個節(jié)點(diǎn),只要運(yùn)行這個節(jié)點(diǎn),就能產(chǎn)生所有我們之前設(shè)置的summary data。
(4)使用tf.summary.FileWriter將運(yùn)行后輸出的數(shù)據(jù)都保存到本地磁盤中
(5)運(yùn)行整個程序,并在命令行輸入運(yùn)行tensorboard的指令,之后打開web端可查看可視化的結(jié)果
tf.name_scope()函數(shù)
復(fù)雜的TensorFlow 一般由數(shù)以千計的節(jié)點(diǎn)所構(gòu)成,如此多而難以一下全部看到,甚至無法使用標(biāo)準(zhǔn)圖表工具來展示。為簡單起見,我們?yōu)閛p/tensor名劃定范圍,并且可視化把該信息用于在圖表中的節(jié)點(diǎn)上定義一個層級。代碼示例1、數(shù)據(jù)準(zhǔn)備
今天程序上來第一部分就發(fā)生變化,出現(xiàn)了新面孔,那就是定義了一個variable_summaries()函數(shù),傳遞參數(shù)為var。
這個函數(shù)的作用是:
(1)將傳遞過來的參數(shù)var進(jìn)行求均值(mean)、標(biāo)準(zhǔn)差(stddev)、最大最小值(max、min)
(2)用tf.summary.scalar()函數(shù),分別對上述的幾個統(tǒng)計量(標(biāo)量)進(jìn)行記錄,同時記錄參數(shù)var的直方圖(tf.summary.histogram()函數(shù)實(shí)現(xiàn))
在這里大家發(fā)現(xiàn)了我用的tf.name_scope()函數(shù),我在這里建立了一個名叫summaries的可視化節(jié)點(diǎn)的層級,之后在Tensorboard中將會找到它。

2、準(zhǔn)備好placeholder
同樣,我用tf.name_scope()函數(shù),建立了一個名叫input的可視化節(jié)點(diǎn)的層級,這個節(jié)點(diǎn)層下包含 x_input、y_input、learning_rate 三個子節(jié)點(diǎn)。3、初始化參數(shù)/權(quán)重
同理,這里我對每個變量都做了同樣的操作,只不過這里我命名了3個層級的節(jié)點(diǎn),大家是否能準(zhǔn)確找到呢~~,同時對權(quán)重值W1、W2、W3,偏置值b1、b2、b3進(jìn)行variable_summaries()函數(shù)的調(diào)用,想具體了解這些參數(shù)在模型訓(xùn)練中是如何發(fā)生變化

4、計算預(yù)測結(jié)果

5、計算損失值

6、初始化optimizer

7、指定迭代次數(shù),并在session執(zhí)行g(shù)raph

運(yùn)行結(jié)果
今天我們的重點(diǎn)在于Tensorboard上,準(zhǔn)確率就不展示了,因?yàn)槌绦蛟谟嬎闵蠜]有變化,依舊會是0.98附近。
接下來我們要做的就是打開Tensorboard,在Macbook中打開終端輸入tensorboard –logdir=

關(guān)注小鯨融創(chuàng),一起深度學(xué)習(xí)金融科技!

總結(jié)

以上是生活随笔為你收集整理的tensorboard 数据降维分布图_以mnist为例探究tensorboard的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。