日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

tensorflow函数方法

發(fā)布時(shí)間:2025/3/21 编程问答 21 豆豆
生活随笔 收集整理的這篇文章主要介紹了 tensorflow函数方法 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

1.tf.where(condition,x=None,y=None,name=None)

作用:該函數(shù)的作用是根據(jù)condition,返回相對(duì)應(yīng)的x或y,返回值是一個(gè)tf.bool類型的Tensor。
若condition=True,則返回對(duì)應(yīng)X的值,False則返回對(duì)應(yīng)的Y值。

import tensorflow as tf sess=tf.Session() A =tf.where(False,123,321) print(sess.run(A)) #321B=tf.where(True,123,321) print(sess.run(B)) # 123

2.tf.placeholder(dtype,shape=None,name=None)

參數(shù):

  • dtype:數(shù)據(jù)類型。常用的是tf.float32,tf.float64等數(shù)值類型
  • shape:數(shù)據(jù)形狀。默認(rèn)是None,就是一維值,也可以是多維(比如[2,3], [None, 3]表示列是3,行不定)
  • name:名稱
  • 為什么要用placeholder?

    • Tensorflow的設(shè)計(jì)理念稱之為計(jì)算流圖,在編寫程序時(shí),首先構(gòu)筑整個(gè)系統(tǒng)的graph,代碼并不會(huì)直接生效,這一點(diǎn)和python的其他數(shù)值計(jì)算庫(如Numpy等)不同,graph為靜態(tài)的。然后,在實(shí)際的運(yùn)行時(shí),啟動(dòng)一個(gè)session,程序才會(huì)真正的運(yùn)行。這樣做的好處就是:避免反復(fù)地切換底層程序?qū)嶋H運(yùn)行的上下文,tensorflow幫你優(yōu)化整個(gè)系統(tǒng)的代碼。我們知道,很多python程序的底層為C語言或者其他語言,執(zhí)行一行腳本,就要切換一次,是有成本的,tensorflow通過計(jì)算流圖的方式,幫你優(yōu)化整個(gè)session需要執(zhí)行的代碼,還是很有優(yōu)勢(shì)的。
    • 所以placeholder()函數(shù)是在神經(jīng)網(wǎng)絡(luò)構(gòu)建graph的時(shí)候在模型中的占位,此時(shí)并沒有把要輸入的數(shù)據(jù)傳入模型,它只會(huì)分配必要的內(nèi)存等建立session,在會(huì)話中,運(yùn)行模型的時(shí)候通過feed_dict()函數(shù)向占位符喂入數(shù)據(jù)。
    import tensorflow as tf import numpy as npinput1 = tf.placeholder(tf.float32) input2 = tf.placeholder(tf.float32)output = tf.multiply(input1, input2)with tf.Session() as sess:print(sess.run(output, feed_dict = {input1:[3.], input2: [4.]}))

    激活函數(shù):

    激勵(lì)函數(shù)主要是為計(jì)算圖歸一化返回結(jié)果而引進(jìn)的非線性部分。激勵(lì)函數(shù)位于tensorflow的nn庫(neural network, nn)。https://www.jianshu.com/p/55a47b1720ba

    激活函數(shù)定義備注
    tf.nn.relu()max(0, x)大于零取原值,小于零取零
    tf.nn.elu()大于等于0的值取原值,小于0的值按照公式計(jì)算,a取值為1

    3.tf.nn.relu(features, name = None)

    作用: 計(jì)算激活函數(shù)relu,即 max(0,features) ,大于零取原值,小于零取零。

    import tensorflow as tfa = tf.constant([-1.0, 2.0]) with tf.Session() as sess:b = tf.nn.relu(a)print sess.run(b) #輸出的結(jié)果是:[0. 2.]

    4.tf.nn.elu(x)

  • elu函數(shù)
  • import tensorflow as tfinput=tf.constant([0,-1,2,-3],dtype=tf.float32) output=tf.nn.elu(input)with tf.Session() as sess:print(sess.run(input)) #[ 0. -1. 2. -3.]print(sess.run(output)) #[ 0. -0.63212055 2. -0.95021296]sess.close()

    按照公式上面大于等于0的值返回原值,小于0的值按照公式計(jì)算:
    e = 2.718281828
    -1: 1/2.718281828-1 = -0.6321205587664327
    -3:1/(2.7182818282.7182818282.718281828)-1 =-0.9502129316069129

    總結(jié)

    以上是生活随笔為你收集整理的tensorflow函数方法的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。