TensorFlow 2.0 - 张量/自动求导/梯度下降
生活随笔
收集整理的這篇文章主要介紹了
TensorFlow 2.0 - 张量/自动求导/梯度下降
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
文章目錄
- 1. 張量
- 2. 自動(dòng)求導(dǎo)、梯度下降
學(xué)習(xí)于:簡(jiǎn)單粗暴 TensorFlow 2
1. 張量
import tensorflow as tf print(tf.__version__) # 2.3.1random_float = tf.random.uniform(shape=()) # tf.Tensor(0.80420315, shape=(), dtype=float32) zero_vec = tf.zeros(shape=(2)) # tf.Tensor([0. 0.], shape=(2,), dtype=float32)A = tf.constant([[1, 2], [3, 4]], dtype=tf.float32) B = tf.constant([[5, 6.], [7, 8]]) print(A.shape) # (2, 2) 形狀 print(A.dtype) # <dtype: 'float32'> 數(shù)據(jù)類型 print(A.numpy()) # 取出張量的數(shù)值矩陣 # [[1. 2.] # [3. 4.]]2. 自動(dòng)求導(dǎo)、梯度下降
- tf.GradientTape() 求導(dǎo)記錄器
- tf.Variable() 變量的操作可被求導(dǎo)記錄器記錄,常用于機(jī)器學(xué)習(xí)的 參數(shù)
- tape.gradient(loss, vars)自動(dòng)計(jì)算梯度, loss 對(duì) vars 的梯度
- optimizer.apply_gradients(grads_and_vars) 優(yōu)化器更新參數(shù)
總結(jié)
以上是生活随笔為你收集整理的TensorFlow 2.0 - 张量/自动求导/梯度下降的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: LeetCode 1629. 按键持续时
- 下一篇: LeetCode 907. 子数组的最小