tensorflow 张量
目錄標(biāo)題
- 張量
- 常量
- 變量
- 占位符
- 解讀分析
張量
張量,可理解為一個 n 維矩陣,所有類型的數(shù)據(jù),包括標(biāo)量、矢量和矩陣等都是特殊類型的張量。
常量
聲明一個標(biāo)量常量:
一個形如 [1,3] 的常量向量可以用如下代碼聲明:
要創(chuàng)建一個所有元素為零的張量,可以使用 tf.zeros() 函數(shù)。這個語句可以創(chuàng)建一個形如 [M,N] 的零元素矩陣,數(shù)據(jù)類型(dtype)可以是 int32、float32 等:
還可以創(chuàng)建與現(xiàn)有 Numpy 數(shù)組或張量常量具有相同形狀的張量常量
創(chuàng)建一個所有元素都設(shè)為 1 的張量。下面的語句即創(chuàng)建一個形如 [M,N]、元素均為 1 的矩陣:
在一定范圍內(nèi)生成一個從初值到終值等差排布的序列:
相應(yīng)的值為 (stop-start)/(num-1)。例如:
從開始(默認(rèn)值=0)生成一個數(shù)字序列,增量為 delta(默認(rèn)值=1),直到終值(但不包括終值):
TensorFlow 允許創(chuàng)建具有不同分布的隨機張量:
使用以下語句創(chuàng)建一個具有一定均值(默認(rèn)值=0.0)和標(biāo)準(zhǔn)差(默認(rèn)值=1.0)、形狀為 [M,N] 的正態(tài)分布隨機數(shù)組:
創(chuàng)建一個具有一定均值(默認(rèn)值=0.0)和標(biāo)準(zhǔn)差(默認(rèn)值=1.0)、形狀為 [M,N] 的截尾正態(tài)分布隨機數(shù)組:
要在種子的 [minval(default=0),maxval] 范圍內(nèi)創(chuàng)建形狀為 [M,N] 的給定伽馬分布隨機數(shù)組,請執(zhí)行如下語句:
要將給定的張量隨機裁剪為指定的大小,使用以下語句
這里,t_random 是一個已經(jīng)定義好的張量。這將導(dǎo)致隨機從張量 t_random 中裁剪出一個大小為 [2,5] 的張量。
很多時候需要以隨機的順序來呈現(xiàn)訓(xùn)練樣本,可以使用 tf.random_shuffle() 來沿著它的第一維隨機排列張量。如果 t_random 是想要重新排序的張量,使用下面的代碼:
隨機生成的張量受初始種子值的影響。要在多次運行或會話中獲得相同的隨機數(shù),應(yīng)該將種子設(shè)置為一個常數(shù)值。當(dāng)使用大量的隨機張量時,可以使用 tf.set_random_seed() 來為所有隨機產(chǎn)生的張量設(shè)置種子。以下命令將所有會話的隨機張量的種子設(shè)置為 54:
TIP:種子只能有整數(shù)值。
變量
它們通過使用變量類來創(chuàng)建。變量的定義還包括應(yīng)該初始化的常量/隨機值。下面的代碼中創(chuàng)建了兩個不同的張量變量 t_a 和 t_b。兩者將被初始化為形狀為 [50,50] 的隨機均勻分布,最小值=0,最大值=10:
注意:變量通常在神經(jīng)網(wǎng)絡(luò)中表示權(quán)重和偏置。
下面的代碼中定義了兩個變量的權(quán)重和偏置。權(quán)重變量使用正態(tài)分布隨機初始化,均值為 0,標(biāo)準(zhǔn)差為 2,權(quán)重大小為 100×100。偏置由 100 個元素組成,每個元素初始化為 0。在這里也使用了可選參數(shù)名以給計算圖中定義的變量命名:
在前面的例子中,都是利用一些常量來初始化變量,也可以指定一個變量來初始化另一個變量。下面的語句將利用前面定義的權(quán)重來初始化 weight2:
變量的定義將指定變量如何被初始化,但是必須顯式初始化所有的聲明變量。在計算圖的定義中通過聲明初始化操作對象來實現(xiàn):
每個變量也可以在運行圖中單獨使用 tf.Variable.initializer 來初始化:
保存變量:使用 Saver 類來保存變量,定義一個 Saver 操作對象:
saver = tf.train.Saver()
占位符
介紹完常量和變量之后,我們來講解最重要的元素——占位符,它們用于將數(shù)據(jù)提供給計算圖。可以使用以下方法定義一個占位符:
dtype 定占位符的數(shù)據(jù)類型,并且必須在聲明占位符時指定。在這里,為 x 定義一個占位符并計算 y=2*x,使用 feed_dict 輸入一個隨機的 4×5 矩陣:
解讀分析
需要注意的是,所有常量、變量和占位符將在代碼的計算圖部分中定義。如果在定義部分使用 print 語句,只會得到有關(guān)張量類型的信息,而不是它的值。
為了得到相關(guān)的值,需要創(chuàng)建會話圖并對需要提取的張量顯式使用運行命令,如下所示:
參考:http://c.biancheng.net/view/1885.html
總結(jié)
以上是生活随笔為你收集整理的tensorflow 张量的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【TensorFlow】简单解释----
- 下一篇: java 动画 制作_DragonBon