TensorFlow 之快速上手详解
- TensorFlow 基本使用簡述
- 一、概念簡述
- 1、學習目標
- 2、TensorFlow 概述
- 3、計算圖
- 4、構建圖
- 5、在一個會話中啟動圖
- 二、讀取數據相關
- 2.1 交互式使用
- 2.2 變量
- 2.3 Fetch (取值)
- 2.4 Feed (喂數據)
- 一、概念簡述
TensorFlow 基本使用簡述
一、概念簡述
1、學習目標
- 使用圖 (graph) 來表示計算任務.
- 在被稱之為 會話 (Session) 的上下文 (context) 中執行圖.
- 使用 tensor 表示數據.
- 通過 變量 (Variable) 維護狀態.
- 使用 feed 和 fetch 可以為任意的操作(arbitrary operation) 賦值或者從其中獲取數據.
2、TensorFlow 概述
TensorFlow 是一個編程系統, 使用圖來表示計算任務. 圖中的節點被稱之為 op (operation 的縮寫). 一個 op 獲得 0 個或多個 Tensor, 執行計算, 產生 0 個或多個 Tensor. 每個 Tensor 是一個類型化的多維數組. 例如, 你可以將一小組圖像集表示為一個四維浮點數數組, 這四個維度分別是 [batch, height, width, channels] .
一個 TensorFlow 圖描述了計算的過程. 為了進行計算, 圖必須在 會話 里被啟動. 會話 將圖的 op 分發到諸如 CPU 或 GPU 之類的 設備 上, 同時提供執行 op 的方法. 這些方法執行后, 將產生的 tensor 返回. 在 Python 語言中, 返回的 tensor 是 numpy ndarray 對象; 在 C 和 C++ 語言中, 返回的 tensor 是 tensorflow::Tensor 實例.
3、計算圖
TensorFlow 程序通常被組織成一個構建階段和一個執行階段. 在構建階段, op 的執行步驟 被描述成一個圖. 在執行階段, 使用會話執行執行圖中的 op.
例如, 通常在構建階段創建一個圖來表示和訓練神經網絡, 然后在執行階段反復執行圖中的訓練 op.
TensorFlow 支持 C, C++, Python 編程語言. 目前, TensorFlow 的 Python 庫更加易用, 它提供了大量的輔助函數來簡化構建圖的工作, 這些函數尚未被 C 和 C++ 庫支持.
三種語言的會話庫 (session libraries) 是一致的.
4、構建圖
- 構建圖的第一步, 是創建源 op (source op). 源 op 不需要任何輸入, 例如 常量 (Constant). 源 op 的輸出被傳遞給其它 op 做運算.
- Python 庫中, op 構造器的返回值代表被構造出的 op 的輸出, 這些返回值可以傳遞給其它 op 構造器作為輸入.
- TensorFlow Python 庫有一個默認圖 (default graph), op 構造器可以為其增加節點. 這個默認圖對 許多程序來說已經足夠用了. 閱讀 Graph 類 文檔 來了解如何管理多個圖.
例子如下 :
- 默認圖現在有三個節點, 兩個 constant( ) op, 和一個matmul( ) op. 為了真正進行矩陣相乘運算, 并得到矩陣乘法的結果, 你必須在會話(Session)里啟動(run)這個圖。
5、在一個會話中啟動圖
- 構造階段完成后, 才能啟動圖. 啟動圖的第一步是創建一個 Session 對象, 如果無任何創建參數, 會話構造器將啟動默認圖.
- 欲了解完整的會話 API, 請閱讀TensorFlow 的 Session 類.
- Session 對象在使用完后需要關閉以釋放資源. 除了顯式調用 close 外, 也可以使用 “with” 代碼塊 來自動完成關閉動作.
- 在實現上, TensorFlow 將圖形定義轉換成分布式執行的操作, 以充分利用可用的計算資源(如 CPU 或 GPU). 一般你不需要顯式指定使用 CPU 還是 GPU, TensorFlow 能自動檢測. 如果檢測到 GPU, TensorFlow 會盡可能地利用找到的第一個 GPU 來執行操作。
- 如果機器上有超過一個可用的 GPU, 除第一個外的其它 GPU 默認是不參與計算的. 為了讓 TensorFlow 使用這些 GPU, 你必須將 op 明確指派給它們執行.
- with…Device 語句用來指派特定的 CPU 或 GPU 執行操作:
設備用字符串進行標識. 目前支持的設備包括:
- “/cpu:0”: 機器的 CPU.
- “/gpu:0”: 機器的第一個 GPU, 如果有的話.
- “/gpu:1”: 機器的第二個 GPU, 以此類推.
- 閱讀使用GPU章節, 了解 TensorFlow GPU 使用的更多信息.
二、讀取數據相關
2.1 交互式使用
- 文檔中的 Python 示例使用一個會話 Session 來 啟動圖, 并調用 Session.run() 方法執行操作.
- 為了便于使用諸如 IPython 或者 Jupyter 之類的 Python 交互環境, 可以使用 InteractiveSession 代替 Session 類, 使用 Tensor.eval() 和 Operation.run() 方法代替 Session.run(). 這樣可以避免使用一個變量來持有會話.
2.2 變量
- Variables for more details. 變量維護圖執行過程中的狀態信息. 下面的例子演示了如何使用變量實現一個簡單的計數器. 參見 TensorFlow變量 章節了解更多細節.
- 代碼中 assign() 操作是圖所描繪的表達式的一部分, 正如 add() 操作一樣. 所以在調用 run() 執行表達式之前, 它并不會真正執行賦值操作.
- 通常會將一個統計模型中的參數表示為一組變量. 例如, 你可以將一個神經網絡的權重作為某個變量存儲在一個 tensor 中. 在訓練過程中, 通過重復運行訓練圖, 更新這個 tensor.
2.3 Fetch (取值)
- 為了取回操作的輸出內容, 可以在使用 Session 對象的 run() 調用 執行圖時, 傳入一些 tensor, 這些 tensor 會幫助你取回結果. 在之前的例子里, 我們只取回了單個節點 state, 但是你也可以取回多個 tensor:
2.4 Feed (喂數據)
- 上述示例在計算圖中引入了 tensor, 以常量或變量的形式存儲. TensorFlow 還提供了 feed 機制, 該機制 可以臨時替代圖中的任意操作中的 tensor 可以對圖中任何操作提交補丁, 直接插入一個 tensor.
- feed 使用一個 tensor 值臨時替換一個操作的輸出結果. 你可以提供 feed 數據作為 run() 調用的參數. feed 只在調用它的方法內有效, 方法結束, feed 就會消失. 最常見的用例是將某些特殊的操作指定為 “feed” 操作, 標記的方法是使用 tf.placeholder() 為這些操作創建占位符.
總結
以上是生活随笔為你收集整理的TensorFlow 之快速上手详解的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Ubuntu 中将Python3 置为默
- 下一篇: How to remove ROM cf