TensorFlow 2.0 - 张量/自动求导/梯度下降
生活随笔
收集整理的這篇文章主要介紹了
TensorFlow 2.0 - 张量/自动求导/梯度下降
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
文章目錄
- 1. 張量
- 2. 自動求導、梯度下降
學習于:簡單粗暴 TensorFlow 2
1. 張量
import tensorflow as tf print(tf.__version__) # 2.3.1random_float = tf.random.uniform(shape=()) # tf.Tensor(0.80420315, shape=(), dtype=float32) zero_vec = tf.zeros(shape=(2)) # tf.Tensor([0. 0.], shape=(2,), dtype=float32)A = tf.constant([[1, 2], [3, 4]], dtype=tf.float32) B = tf.constant([[5, 6.], [7, 8]]) print(A.shape) # (2, 2) 形狀 print(A.dtype) # <dtype: 'float32'> 數據類型 print(A.numpy()) # 取出張量的數值矩陣 # [[1. 2.] # [3. 4.]]2. 自動求導、梯度下降
- tf.GradientTape() 求導記錄器
- tf.Variable() 變量的操作可被求導記錄器記錄,常用于機器學習的 參數
- tape.gradient(loss, vars)自動計算梯度, loss 對 vars 的梯度
- optimizer.apply_gradients(grads_and_vars) 優化器更新參數
總結
以上是生活随笔為你收集整理的TensorFlow 2.0 - 张量/自动求导/梯度下降的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: LeetCode 1629. 按键持续时
- 下一篇: LeetCode 907. 子数组的最小